كثيرا ما يتم إغفال الدور الذي تؤديه الفلسفة بل ولا يمكن أن تؤديه سوى الفلسفة إذا أردنا تكنولوجيا مسؤولة تنفع البشرية، وخاصة أن هناك من لم يزالوا يعتقدون أن الفلسفة تقبع في برج عاجي، عبارة عن تنظير بعيد عن متطلبات الحياة العملية والتطبيقية ولا صلة لها بالتطورات الحادثة في العالم رغم أن الحقيقة أن هذه التطورات لن تعمل بشكل صحيح ولن يكون لها المردود الذي تنشده الإنسانية بدون الفلسفة والعلوم الإنسانية.

غالبا ما ينحصر اهتمام العلماء في مجال التكنولوجيا- والتكنولوجيا التي نعنيها هنا هي الذكاء الاصطناعي- في مدى نجاح التقانة في تحقيق المراد منها، فإذا كانت التقانة دواء معينا، فالتركيز من جانب العلماء يكون على مدى نجاح الدواء في علاج مرض معين. وإذا كانت الأداة أداة تشخيصية لمرض معين، فالتركيز يكون على مدى نجاحها في تشخيص ما صممت من أجله، وإذا كانت سيارة ذاتية القيادة، فالتركيز يكون على مدى نجاحها في أن تسير في الشوارع وحدها دون قيادة وبسلام. وهكذا.

إلا أن السؤال هو: هل هذا هو العلم المراد منه نفع البشرية؟ وهل التركيز في هذا المحور يحقق المراد من العلم؟ أبدا.

تعالوا نناقش دور الفلسفة.

في عام 1996 علمت شركة فايزر للأدوية أن وباء التهاب السحايا قد انتشر في نيجيريا، وأن الوباء أصاب 250000 شخص وتوفي بسببه 25 ألف شخص. في أقل من ستة أسابيع استطاعت الشركة أن تحصل على موافقة مبدئية لإجراء تجربة على مضاد حيوي يسمى «تروفان»، من أجل الحصول على معلومات تجريبية وطبية عن هذا الدواء بهدف معلن هو إيجاد علاج لهذا الوباء في الشرق الأوسط. أنهى فريق فايزر التجارب خلال ثلاثة أشهر وعاد للولايات المتحدة لتثير صحيفة واشنطن بوست هذه القضية عام 2000 وتفضح وقائع لم يكن أحد يعلم بها. أولا: لم تكن هناك لجنة أخلاقيات هي المنوطة بالموافقة على خطة البحث قبل البدء في التجارب، لم يـتأكد أحد ما إذا كانت هيئة الدواء النيجيرية المنوط بها الموافقة على إجراء الدراسة قد وافقت أم لا. لم يتأكد أحد عما إذا كانت موافقة أولياء أمور الأطفال الذين أجريت عليهم التجارب قد حصلت عليها الشركة أم لا. الموارد والأدوات الطبية التي كان من المفترض أن توجه لعلاج المرضى أثناء الوباء تم إعطاؤها للشركة ضمن أدوات التجربة، في سعيها للحصول على أكبر عدد من المتطوعين استعانت الشركة بكثير من الأطفال للتجريب عليهم دون الحاجة لذلك، لم تجر الشركة متابعة لمدى أمان الدواء بعد انتهاء التجارب وكانت النتيجة في النهاية اضطرار الشركة لسحبه من السوق 1999 بعد أن مات أربعة أطفال ومصادر أخرى تقول أنهم أحد عشر طفلا.

هل هذا هو العلم الذي تريده البشرية؟ هل جُعل العلم لخدمة البشرية أم لتحقيق مكاسب مادية على حساب مجتمعات أخرى وهو ما يؤدي إلى توسيع الهوة بين المجتمعات؟

مثال آخر: خلال عام 2020 عندما كان العالم يتسابق للوصول إلى مصل لوقاية الناس وإنقاذ حيواتهم من وباء كورونا، اشترت كندا ما يكفي لتطعيم أبناء شعبها 5 مرات والولايات المتحدة 4 مرات والاتحاد الأوروبي 3 مرات.

هل هذا هو العلم الذي تريده البشرية؟

هنا يأتي دور الفلسفة لتوجه العلم التوجيه الصحيح الذي يجعل من العلم ومنتجاته منفعة للبشرية جمعاء.

ما هو هذا الدور؟ تعالوا نعود قليلا في التاريخ منذ بداية الفلسفة.

أحد المباحث الأساسية للفلسفة منذ بدايتها هو محاولة تحديد القيم والمبادئ الأخلاقية التي يجب أن يتبعها الإنسان في حياته بشكل عام دون تحديد مجال محدد تنطبق عليه هذه القيم أو المبادئ. البعض رأى أن هذه المبادئ هي العدالة والمساواة والإنصاف. ومن ثم فقد انبرى الفلاسفة يحددون وينظرون لمعاني العدالة والمساواة والإنصاف وغيرها.

إلا أنه مع تقدم العلم والتكنولوجيا وتسارع تطور منتجاتها في القرن العشرين ، ظهر ما يعرف بالأخلاقيات التطبيقية - وان كنت أعترض على هذا التمييز بين الأخلاق التطبيقية والأخلاق النظرية وهو ما عرضته في أكثر من مكان سابق، بدءا من مقالي المنشور على منصة معنى «الفلسفة تطبيقية بالضرورة» https://mana.net/16248 ولكن هذا حديث آخر.

الأخلاقيات التطبيقية هي محاولة الفلاسفة وضع المعايير والقيم الأخلاقية الخاصة بكل تقنية جديدة على حدة أو كل فرع من فروع العلم على حدة فظهرت أخلاقيات الطب، أخلاقيات الإعلام، أخلاقيات الهندسة وأخلاقيات النانوتكنولوجيا وأخلاقيات الذكاء الاصطناعي..الخ.

وذلك من أجل أن توجه العلم للسير من أجل منفعة كل البشرية.

وبالتالي فالأخلاقيات التطبيقية تدرس التحديات الأخلاقية التي تواجه كل تقنية ثم تحدد المبادئ الأخلاقية التي توجه هذه التقانة انطلاقا من خلفية فلسفية وهي كيف يمكن لأي تقانة أن تمثل مساهمة إيجابية للبشرية.

كيف يتم تحديد التحديات الأخلاقية؟

تتحدد التحديات الأخلاقية انطلاقا من رؤية معرفية ترى ضرورة توفر مجموعة من المبادئ والقيم في التقانة المراد لها أن تخدم البشرية، بحيث أنه متى غابت، مثل هذا تحديا أخلاقيا.

على هذا الأساس يمكن إجمال التحديات الأخلاقية التي من الضروري دراستها والبحث في سبل التعامل معها من أجل ذكاء اصطناعي يخدم الإنسان، فيما يلي:

أوجه التحيز

تنطوي كل برامج الذكاء الاصطناعي على أوجه تحيز موجود في تصنيعها لم تتمكن الشركات من التخلص منه حتى الآن لأنه ناتج عن سببين: أخطاء في التفكير العام للبشر لا يعي البشر أنه يرتكبها فينجم عن محاولاته تبسيط المعلومات حول العالم، وبالتالي يدرجها مصمم البرنامج بدون وعي في البرنامج، أو ينتج عن معلومات غير كاملة ينقلها مصمم البرنامج إلى البرنامج دون أن يعي عدم اكتمالها.

تؤدي أوجه التحيز هذه التي تعكسها أنظمة الذكاء الاصطناعي إلى ترسخها بين بني البشر والتمييز بينهم واستبعاد وتهميش بعض فئات المجتمع مما ينتج عنه زيادة الفوارق الاجتماعية والاقتصادية بين فئات أو مجتمعات وأخرى.

تكشف أدوات البحث عبر الانترنت أولويات الباحث وبالتالي لا تظهر أمامه سوى تفضيلاته وبالتالي فهي ليست محايدة على الإطلاق. فإذا كان الباحث ممن ينظرون للمرأة نظرة جنسية فقط، فلن تأتي النتائج عند البحث بإدخال كلمة «امرأة» سوى بالنتائج التي تتفق مع أولويات الباحث، وهكذا.

يؤثر التحيز الموجود في نماذج الذكاء الاصطناعي على كل المجالات التي تستخدم فيها هذه النماذج، ففي مجال الكتابة والبحث العلمي على سبيل المثال، قد يؤدي المحتوى الناتج عن الذكاء الاصطناعي والمتأثر بالتحيز إلى دفع الباحثين للاهتمام بموضوعات محددة دون غيرها، وبالتالي إهمال مجالات البحث المهمة الأخرى. كذلك قد يؤدي إلى نتائج غير دقيقة، وتفسيرات خاطئة، مما قد يؤدي إلى نتائج علمية معيبة ونتائج بحثية غير موثوق بها. وأخيرا فإذا كان المحتوى الناتج عن الذكاء الاصطناعي متحيزا فقد يتأثر تصور الجمهور للبحث العلمي سلبا مما يضعف معه الثقة في المؤسسات العلمية ونتائجها.

الشفافية والمحاسبية

غالبا ما تعمل برامج الذكاء الاصطناعي من خلال صندوق أسود لا يظهر طريقة وصولها للقرارات التي يتخذها البرنامج أو كيفية عملها. ففي الميادين الحيوية مثل الرعاية الصحية أو المركبات ذاتية القيادة، تعد الشفافية مسألة حيوية لمعرفة كيفية الوصول لقرار ومن المسؤول عنه؟ كذلك فإن المحاسبية مهمة للغاية خاصة عندما يرتكب البرنامج خطأ ما أو يسبب ضررا ما، وبالتالي يمكن اتخاذ قرارات تصحيحية. لذلك يحاول الباحثون في مجال الذكاء الاصطناعي تطوير برامج الذكاء الاصطناعي بحيث يمكنها تقديم تفسيرات لهذه التحديات.

تهديد التنوع الثقافي والاجتماعي والبيولوجي

يجب أن تراعي برامج الذكاء الاصطناعي التنوع الثقافي والاجتماعي والبيولوجي لأنه أمر واقع لا يجب على التقانة أن تفسده.

التحيز الكامن في تصميمات برامج الذكاء الاصطناعي يمثل أول أشكال تهديد التنوع الثقافي والاجتماعي. بل إن غياب التنوع الثقافي في تصميمات برامج الذكاء الاصطناعي هو أحد أسباب التحيز. إذ لما كان مصممو البرامج أغلبهم من العالم الأول، يفتقر الذكاء الاصطناعي إلى تنوع المعارف الثقافية والاجتماعية المطلوب حتى تمثل منظورات الذكاء الاصطناعي التنوع تمثيلا سليما.

ففي عام 2019 صدر تقرير من معهد الذكاء الاصطناعي التابع لجامعة نيويورك يذكر أن 80% من أساتذة الذكاء الاصطناعي من الرجال وأن نسبة السود بين موظفي جوجل لا تتعدى 2.5%، أما نسبتهم في شركة فيسبوك ومايكروسوفت فلا تتعدى 4%، كذلك فإن عدد العاملات من النساء في هذا المجال صغير جدا وأغلبهن من النساء البيض.

تكمن المشكلة في أنه لما كانت البرامج والخوارزميات مصممة في أغلبها من قبل مصممين من العالم الأول، فإن منظورات المناطق التي لم يشارك منها مصممون للبرامج تظل غائبة مما يضاعف من أشكال التحيز ويجعل بعض هذه البرامج لا تصلح لكل مكان في العالم.

البيانات الموجودة في برامج السيارات ذاتية القيادة مثلا مصممة لشبكة طرق نظيفة وهي شبكة طرق الولايات المتحدة أو انجلترا. ولما كانت شبكة الطرق في إفريقيا ليست كذلك، فالطرق ملتوية وغير نظيفة، وبالتالي فالسيارة ذاتية القيادة التي تم تدريبها في شوارع الولايات المتحدة أو أوروبا لا يمكنها العمل في إفريقيا.

كذلك يمكن للذكاء الاصطناعي أن يشكل تهديدا للتنوع الاجتماعي إذا ما ضاعفت برامجه من صور عدم المساواة وذلك بالتقليل مثلا من أهمية حقوق المجتمعات المحلية في البيانات، وإذا ما استخدم بلغة لا يفهمها أبناء المجتمعات المحلية.

التأثيرات السلبية على البيئة والنظم الإيكولوجية

لا يجب على أي تقانة أن تؤثر سلبيا على البيئة والنظم الإيكولوجية. لقد وعى العالم أنه من أجل تحقيق الاستدامة يجب على أي تقانة جديدة ألا تكون ضارة بأي عنصر من عناصر النظام الإيكولوجي.

لدى برامج الذكاء الاصطناعي المقدرة وسيكون لها مقدرة أكبر مع تطورها على المساعدة في حماية البيئة: فوكالة الفضاء الأوروبية على سبيل المثال تستخدم الذكاء الاصطناعي في تحليل بيانات من الأقمار الصناعية يمكنها أن تكشف عن مستوى تلوث الهواء في المدن المختلفة، ومصدر التلوث. كذلك يمكن استخدام الذكاء الاصطناعي في التنبؤ بأي كارثة طبيعية قبل حدوثها، مثل الأعاصير والبراكين بحيث تتيح الفرصة لإخلاء السكان قبل الحدوث بوقت كاف. يمكن استخدامها أيضا في تقليل النفايات وترشيد استخدام الطاقة. كذلك تشكل برامج الذكاء الاصطناعي فرصة واعدة في ترشيد استخدام وتوزيع الطاقة المتجددة.

على الرغم من هذه المنافع - وغيرها- التي يمكن للذكاء الاصطناعي تقديمها في مجال البيئة، فإن نظم الذكاء الاصطناعي من الممكن في الوقت نفسه أن تشكل تهديدا للبيئة. إحدى صور التهديد مثلا هي إمكانية استخدام الذكاء الاصطناعي في إيجاد طرق جديدة لاستخراج الموارد الطبيعية من باطن الأرض مثل المعادن والغاز. في الوقت الذي تساعد هذه التقانات في تقليل النفايات وزيادة كفاءة الإنتاج، فإنها قد تؤدي إلى زيادة استنزاف الموارد الطبيعية وبالتالي إلى تدمير للبيئة.

الخصوصية

الخصوصية حق بشري لكل فرد.

إن أخطر تحدٍ أخلاقي يمكن أن يواجه الذكاء الاصطناعي هو اختراق الخصوصية. فالخوارزميات تسهل عملية تجميع ومعالجة أكبر عدد ممكن من البيانات والصور، وهو ما يهدد الحق في الاستمتاع بالخصوصية والحق في حماية البيانات الخاصة. فالخوارزميات تتبع الأفراد الذين يتم تسجيل أنماط بحثهم عبر الإنترنت من خلال ملفات تعريف الارتباط والتقانات الأخرى مثل أخذ البصمات الرقمية. يمكن أيضا للأجهزة الذكية كالهواتف أن تسجل بيانات الفرد التي تعكس سلوكياته وهو ما يزيد من خطر اختراق الخصوصية.

حرية التعبير

لعمليات الخوارزميات وتقنيات معالجة البيانات تأثيرات ضخمة على حق الإنسان في حرية التعبير. تؤثر محركات البحث في إظهار المحتويات للجمهور المتلقي، فالمحتوى الذي لا يصنفه محرك البحث كمحتوي عال الأهمية ليس من المحتمل أن يصل لعدد كبير من المتلقين أو أن يظهر على الإطلاق. وكنتيجة لذلك قد يؤدي استخدام الخوارزميات إلى تفتيت الميدان العام ويؤدي إلى خلق غرف صدى تفضل أنواعا من الأخبار على غيرها وهو ما قد يقسم المجتمع إلى أقطاب تهدد التماسك الاجتماعي. ولما كانت خوارزميات البحث قد تتحيز لمحتوى دون آخر، فإن هذا قد يؤثر على بعض القيم مثل قيم التعددية والتنوع في الإعلام.

كذلك توجه التوقعات الخوارزمية لتفضيلات المستخدم على منصات التواصل الاجتماعي ليس فقط الإعلانات ولكنها تشخص أيضا نتائج البحث. ثم إن حجم المنصات مثل جوجل والفيسبوك يؤثر تماما في جعل أصوات معينة ومحتويات معينة أكثر بروزا من غيرها مما يؤثر على حرية التعبير من حيث كونها موجها غير مدرك.

عادة ما يتم حذف محتويات موجودة على المنصات الرقمية عن طريق معالجات آلية حيث تستخدم الخوارزميات في تنقية المحتوى وهو ما يثير التساؤل حول مدى حرية التعبير عن الرأي. تستخدم الفيسبوك واليوتيوب آلية فلترة الفيديوهات ذات المحتوى المتطرف دون الإعلان عن أية معايير يمكن بها الحكم على فيديو بأن مادته توصف بالتطرف. وفي أوروبا يحدث الأمر نفسه استجابة لضغوط سياسية وضغوط من الرأي العام، يتم إلغاء المواد المتطرفة من المنصات الرقمية، إلا أن هذا الإجراء انتقد لأنه سحب مسألة إنفاذ القانون من الدولة ليمنحها لشركات خاصة، كذلك فإن مسألة التدخل ومنع محتوى بزعم أن محتواه متطرف يتعارض مع حرية التعبير.

القيم والمبادئ الأخلاقية

التي توجه الذكاء الاصطناعي

بعد تحديد التحديات الأخلاقية، يأتي دور الفلسفة في تذكير العلماء والساسة بما هي القيم والمبادئ الواجب أن توجه الذكاء الاصطناعي حتى يكون تقنية تنفع البشرية. وعلى أساس تحديد الفلاسفة لماهية هذه القيم وشرح المبادئ، تحدد الجهات المعنية الإجراءات الواجب اتباعها.

أصدرت اليونسكو 2021 توصية عامة للذكاء الاصطناعي حددت فيها الإجراءات الواجب اتباعها من كل المعنيين بالذكاء الاصطناعي بناء على «قيم ومبادئ» واجب اتباعها يحددها الفلاسفة وهي ما سوف أعتمد عليه هنا.

القيم

احترام حقوق الإنسان

وكرامة الإنسان وحمايتها

كرامة الإنسان هي القاعدة التي تقوم عليها منظومة حقوق الإنسان. لم يختلف الفلاسفة ولا الأديان في أن للإنسان كرامة يجب احترامها. برّر الفلاسفة منذ العهد اليوناني- أرسطو والرواقيون- كرامة الإنسان بردها إلى قدرته على التفكير الحر والوعي بالذات وحرية اتخاذ القرار. كذلك رأت الأديان السماوية الثلاثة أن للإنسان كرامة: فكرامة الإنسان تصور أساسي في الديانة اليهودية، وللإنسان كرامة يجب احترامها في الديانة المسيحية لأن الله خلق الإنسان على صورته، وللإنسان كرامة يجب احترامها في الديانة الإسلامية لأن الإنسان خليفة الله على الأرض. الكرامة الإنسانية- إذا- جزء من هوية الإنسان. فإذا لم تحترم كرامة الإنسان، فكأنك تنتقص شيئا من قدره أو كأنك تتعامل مع كائن مختلف.

على هذا الأساس ارتأت التوصية ضرورة احترام كرامة الإنسان وحقوق الإنسان وحمايتها وفقا للقانون الدولي لحقوق الإنسان طوال دورة حياة نظم الذكاء الاصطناعي. وينبغي ألا يتعرض أي إنسان أو جماعة لأي شكل من أشكال الضرر النفسي أو البدني أو الاقتصادي أو الاجتماعي خلال أي مرحلة من مراحل دورة حياة نظم الذكاء الاصطناعي.

حماية وازدهار البيئة

قيمة أساسية يجب أن تراعيها كل تقانة جديدة، لأن عدم مراعاتها يضر بالإنسان وبحق الأجيال المستقبلة في بيئة سليمة متنوعة مثلما ورثناها نحن. وبالتالي فإنه تطبيقا لهذه القيمة على تكنولوجيا الذكاء الاصطناعي، ينبغي مراعاة ازدهار وحماية البيئة طوال دورة حياة نظم الذكاء الاصطناعي. فيتم التقليل مثلا من العواقب البيئية لنظم الذكاء الاصطناعي، مثل انبعاثات الكربون الناجمة عن هذه النظم لضمان الحد من خطورة التغير المناخي والتغيرات البيئية والحيلولة دون استخدام الموارد الطبيعية استخداما غير مستدام.

ضمان التنوع والشمول

التنوع والشمول يحقق التمثيل الصحيح من جانب التقانة للبشرية لأن التقانة التي يصنعها أفراد من العالم الأول ستحمل منظورهم هم واهتماماتهم وسيغيب عنها قيم أفراد بقية العالم ولن يحقق العدالة الذي هو مطلب بشري سليم. وبالتالي ينبغي ضمان وتعزيز التنوع والشمول طوال دورة حياة نظم الذكاء الاصطناعي وذلك عن طريق تشجيع كافة الأفراد والجماعات في المشاركة في التصميم والاستخدام. وكذلك عدم الحد من الخيارات المتعلقة بأساليب الحياة أو المعتقدات أو الآراء ومنها الاستخدام الاختياري لنظم الذكاء الاصطناعي والتصميم المشترك لها.

العيش في مجتمعات

مسالمة وعادلة ومترابطة

يجب على تقانات الذكاء الاصطناعي أن تكون أدوات لتحقيق العدالة والسلم والترابط. لذا ينبغي للجهات الفاعلة المعنية بالذكاء الاصطناعي أن تشارك في المساعي الرامية إلى تحقيق السلم والعدل في المجتمعات وذلك بتعزيز هذه القيم طوال دورة حياة نظم الذكاء الاصطناعي. إذ ينبغي للعمليات الخاصة بدورة حياة هذه النظم ألا تنطوي على الفصل بين البشر أو بين أفراد مجتمعات واعتبارهم مجرد أشياء والمساس بحريتهم وقدرتهم على اتخاذ القرارات بصورة مستقلة.

المبادئ

التناسب وعدم الإضرار

يجب مراعاة ألا تكون تكنولوجيا الذكاء الاصطناعي محدثة لأي ضرر. وهل جعلت أية تكنولوجيا إلا من أجل منفعة الناس؟ لذا يجب ضمان اتخاذ تدابير قياس المخاطر، واتخاذ تدابير درء الضرر المحتمل. وينبغي لوسيلة الذكاء الاصطناعي أن تكون ملائمة للهدف المشروع المراد تحقيقه. وينبغي أن يكون القرار النهائي في يد البشر في الحالات التي تنطوي على قرارات يعتقد أنها قد تعود بعواقب لا يمكن إصلاحها.

السلامة والأمن

قد ينتج عن كل تكنولوجيا حديثة أضرار غير مقصودة نتيجة أخطاء تحدث في المعمل مثلا وأضرار مقصودة تنتج عن الاستخدام الضار المتعمد للتكنولوجيا. ينبغي اتخاذ كل الاحتياطات الضرورية التي تؤدي إلى درء الأضرار غير المقصودة واتخاذ سياسات وإجراءات تمنع الهجمات المقصودة وذلك من أجل سلامة البشرية والبيئة ومن أجل أن تظل التكنولوجيا تكنولوجيا مسؤولة.

العدالة والإنصاف

البشر سواسية وبالتالي يجب أن يتمتعوا جميعا بمنافع أية تكنولوجيا. لا أن تذهب المنافع لمجتمعات دون أخرى. وبالتالي يجب ضمان توفير منافع وسائل تكنولوجيا الذكاء الاصطناعي وضمان تمكين الجميع من الحصول عليها مع مراعاة الاحتياجات الخاصة لكافة الفئات العمرية وذوي الاحتياجات الخاصة.

الاستدامة

هو أحد الأهداف المراد تحقيقها من قبل المجتمعات وقد اتفق على أنه التنمية التي لا تضر بالبيئة حاليا أو مستقبلا من أجل حفظ حقوق الأجيال القادمة في بيئة سليمة. ولما كان من الممكن لكل تكنولوجيا أن تساعد على تحقيق هذا الهدف أو تعيقه، وجب التقييم المستمر لكل أشكال التكنولوجيا لضمان تحقيقها لهدف الاستدامة.

الحق في الخصوصية

حق الإنسان في الخصوصية حق لا خلاف عليه ترجمته كثير من البلدان إلى قانون يحمي هذا الحق.

هذا الحق يحمي كرامة الإنسان واستقلاليته. لذلك ينبغي احترام هذه الخصوصية طوال دورة حياة نظم الذكاء الاصطناعي، فيتم جمع البيانات وتشاطرها بما يتمشى والقانون الدولي والأطر القانونية المحلية.

الشفافية والقابلية للشرح

هذا المبدأ يساعد في بناء مجتمع أكثر عدلا وديمقراطية ويتيح المراقبة العامة التي تحد من الفساد. لتحقيق هذا المبدأ يجب أن يكون من الممكن دائما التعرف على مبرر اتخاذ نظم الذكاء الاصطناعي لقرار معين. هذه الشفافية تساعد على أمور كثيرة: على فهم مبرر اتخاذ القرار، وينبغي أن يكون من حق الناس طلب شرح لتبرير اتخاذ قرار معين يمس حقوقهم.

المسؤولية والمساءلة

ينبغي أن يتسنى دائما عزو المسؤولية الأخلاقية عن القرارات القائمة على أي نظام من نظم الذكاء الاصطناعي إلى الجهات الفاعلة المعنية بالذكاء الاصطناعي في كل دورة من دورات حياته.

الوعي والدراية

ما كانت القوانين وحدها في يوم من الأيام كافية. تقف التوعية بالقيم الأخلاقية وأهمية اتباعها عمادا مساعدا لتنفيذ القوانين. يجب توعية الناس بقيمة البيانات وأهمية الحفاظ عليها وتدريبهم على أخلاقيات الذكاء الاصطناعي وخاصة فهم معنى التنوع الثقافي وغرس القيم فيهم بعد شرحها لهم.

الآن: هل من الممكن أن يكون لنظم الذكاء الاصطناعي الأهمية والفاعلية التي نبتغيها له دون تحديد الفلسفة وشرحها وتوضيحها هذه القيم والمبادئ التي يجب أن توجه مسيرة هذه التقانة؟