آثار الذكاء الاصطناعي غير المحمودة باعتبارها خروقا لحقوق الإنسان

14 سبتمبر 2022
14 سبتمبر 2022

في الورقة العلمية المعنونة بـ«يحتاج الذكاء الاصطناعي إلى حقوق الإنسان: كيف أدّى التركيز على الذكاء الاصطناعي الأخلاقي إلى الإخفاق في تناول الخصوصية، والتمييز، وغيرها من الإشكالات» لكاتي ساسلو وفيليب لورينز، التي ترجمها أحمد محمد بكرموس ونشرت على منصة معنى مؤخرًا - أقول إن هذه الورقة تحاول إعادة توجيه الخطاب الناقد لآثار الذكاء الاصطناعي عبر وضعه في إطار نظري جديد. فعوضًا عن تناول القضية باعتبارها مسألةً أخلاقيةً، يقترح المؤلفان تناولها وفق منظومة حقوق الإنسان. ورغم الحسنات التي قد يأتي بها مثل هذا الاقتراح، إلا أن هناك تحديات حقيقية تحول دون إعادة التأطير هذه، أو تجعلها صعبة على الأقل.

يدعو الكاتبان إذا إلى تركيز خطاب الذكاء الاصطناعي حول حقوق الإنسان بدلا من الأخلاق، أو بالأحرى كخطوة تالية متممة ومنبثقة من الخطاب الأخلاقي. يُجادلان أن الخطاب الأخلاقي يشكو من الغموض للحد الذي يجعل من الصعب الاستفادة منه عمليًا، كما أنه يفتقر إلى آليات مسائلة مؤثرة. فيما يُوفر البديل -أي مناقشة قضايا الذكاء الاصطناعي وفق إطار حقوق الإنسان- أساسًا قانونيًا مُلزمًا، ويفتح إمكانيات لتطوير تدابير مسائلة وسُبل انتصاف فعالة. خصوصًا أن هناك توافقا عالميا على مبادئ حقوق الإنسان، وأن ثمة مؤسسات ومرافق ناشطة في هذا المجال بالفعل. الأمر الذي يختصر الخطوات الأولى ويمنح الأساس الذي يُمكن الانطلاق منه والبناء عليه. كما أن الانطلاق من هذا الأساس المشترك سيشجع دولا عديدة ولاعبين إضافيين للمشاركة وتكثيف الجهود.

يصعب تحديد مصدر وحيد للآثار الضارة للذكاء الاصطناعي، لكن المشكلة نابعة بالأساس من كونها تُطرح للاستخدام قبل ضمان مستوى ملائم من الدقة والموثوقية. مصادر التحيز قد تنبع من التصميم المعيب (عيب في النموذج)، أو عيب في البيانات المستخدمة لتطوير النموذج، أو عيب في تفسير النتائج التي يمنحها النظام من قبل مستخدميه، من بين مصادر ممكنة أخرى. يُمكن أن تُصمم أنظمة الذكاء الاصطناعي بنوايا غير حسنة (مراقبة المواطنين)، لكنها أيضا قد تنتج آثارا ضارة رغم حسن النوايا (أنظمة التعرف على الوجه مثلا).

أهم تحديات هذا الطرح نابعة من حدّة المشكلة وخصوصيتها. فعندما يتعلق الأمر بتفاوت دقة المقياس بناء على المجموعة التي يتعرض لها النظام فهذه مشكلة مستجدة. فكر بأدوات تُصمم لتشخيص أمراض مثل السرطان، لكنها تكشف عن دقة تتفاوت حسب المجموعة التي ينتمي إليها الفرد محل التشخيص. تخيل مثلا أن دقة التشخيص تصل إلى 95٪ إذا ما كان الشخص أبيض، مقابل 60٪ إذا كان الشخص ملون. يُمكن القول إن استخدام أداة مثل هذه تمثل عدم إنصاف تجاه المجموعات لا ينجح النظام في إعطاء تشخيص دقيق، مما يعني أنهم يحرمون من الاكتشاف المبكر لأمراضهم، ويعرض صحتهم وحياتهم للخطر. رغم هذا -يمكن أن يُجادل المرء- فاستخدامه أفضل من عدم استخدامه، لأن هناك شريحة عريضة يُمكنها الاستفادة بجدية منه، خصوصا إذا ما حدث وكانت هذه الشريحة تمثل الأغلبية فما من مبرر بعد لمنع استخدام هذه الأداة بالرغم من عدم المساواة التي تشكو منها. خلاصة الأمر، أننا في مرحلة مبكرة من استخدامنا لتطبيقات الذكاء الاصطناعي، وما زالت تتكشف لنا الطرق العديدة التي تؤثر بها هذه التطبيقات على المجتمع، وفي وقت مبكر أيضا من تطوير معايير تضبط عملية التطوير، ومقاييس تكشف عن الخروق متى ما حصلت. تحدٍ آخر يتمثل في نوع المسؤولية التي يجب أن يتحملها المشاركون. هل يجب تحميل المسؤولية للجهة المطورة، أم الجهة المستخدمة. وماذا عن الخروق التي تُكتشف في وقت متأخر وبعد مدة من الاستخدام دون علم مسبق للمطورين أو المستخدمين بوجودها. يهيئ لي أن نوع المسؤولية الذي يلائم مجال الذكاء الاصطناعي هو مسؤولية جمعية لا فردية. لكن ليس من الواضح ماذا يأتي بعد تحميل المسؤولية. فرض العقوبات قد لا يبدو أمرا معقولا خصوصا في الحالات التي تخلو من سوء نية، والتي يكون فيها الضرر المُتسبب به غير المقصود. إما إن كانت العقوبات تخص مصادرة الأدوات، أو تضييق استخدامها، أو حتى مصادرة حق الشركات في تطوير أنظمة مستقبلية، فهذا يبدو جزاء معقولا. لكن يجب الانتباه إلى أن للشركات الكبرى طرقها في التخلي عن المسؤولية كتكليف أطراف أخرى بالمهام وإلقاء المسؤولية عليهم بالتالي دون أن يكون التعاون بين الشركات المُستخدِمة والمُستَخدمة واضحا للعموم. ولأن الجهات المطورة لأنظمة الذكاء الاصطناعي اليوم هي شركات خاصة، فلعل فرض نوع من الرقابة قد يمثل حلا. غير أنه -وحتى اليوم- لا يوجد اتفاق بين الأكاديميين حول المعايير أو الشروط التي يتوقع من المطورين الالتزام بها (عدا الخطوط العريضة العامة مثل احترام الخصوصية، أو ضمان المساواة)، فما بالك بالنقاش الذي يحاول الجمع بين أطراف ذات مصالح متضاربة.

تحدٍ أخير يكمن في إقناع الدول التي تُخترق فيها حقوق الإنسان -على أي حال- ألا تستغل الطاقة الجبارة التي تأتي بها أدوات الذكاء الاصطناعي لمواصلة ترهيب مواطنيها والحد من حقوقهم وحرياتهم. إذ تمنح أدوات التعرف على الأصوات والوجوه -مثلا- إمكانيات لا نهائية لرقابة غير محدودة على المواطنين أينما كانوا. وإذا كانت هذه الدول لا تؤمن بحق مواطنيها في خصوصية معلوماتهم فهذا يعني أن إعادة التأطير لا تُشكل فارقًا كبيرًا، ولا تُمثل حلًا للمشكلة.

إن طرح كاتي ساسلو وفيليب لورينز هو بالطبع طرح مهم، وهو يجلب عناصر جديدة ويثري النقاش حول الآليات الممكنة للتعامل مع الآثار غير المحمودة للذكاء الاصطناعي إلا أنه لابد من الانتباه إلى العوائق التي تتحدى هذه الأطروحة، كما يجب الانتباه إلى خصوصية المشكلة وحداثتها. أمر آخر يجب الانتباه له وهو ضيق أفق الطرح الأبيض والحلول البيضاء التي تفترض إجماعًا على مبادئ حقوق الإنسان، وتفترض أنها مبادئ محترمة وملتزم بها في معظم بلدان العالم. بينما الواقع -حسب ما يبدو لي على الأقل- هو عكس ذلك تمامًا.

نوف السعيدي كاتبة وباحثة عمانية في مجال فلسفة العلوم