المشكلة الأخلاقية للذكاء الاصطناعي وتساؤلات الفلسفة ومقارباتها
بات مشهدُ الذكاءِ الاصطناعي في زمننا الراهن ذا بعد فلسفي وأخلاقي عميق يستدعي مراجعتنا للأطر الفلسفية التي وجَّهت الإنسانَ عبر التاريخ إلى رسم معايير للسلوك الأخلاقي؛ لنستحضر بعضًا من أهم هذه الأطر الفلسفية التي أنتجها فلاسفةٌ بارزون مثل «إيمانويل كانط» المتمثّل بمشروعه الذي يُعرف بالأخلاقيّة الكانطيّة، و«جون ستيوارت ميل» في النفعيّة (Utilitarianism)، وأرسطو في أخلاقيات الفضيلة. سنحاول أن نقحمَ هذه الأطرَ الفلسفية ومشروعاتها الأخلاقية في التساؤلات المتعلقة بالذكاء الاصطناعي ونختبرها في العملية الأخلاقية الرقمية، وسنحاول أن نكتشف آلية تفاعل هذه المنطلقات الفلسفيّة مع واقع الخوارزميات القادرة على التعلُّم واتخاذ القرارات المصيريّة.
تستندُ فلسفة كانط الأخلاقيّة إلى جوهرٍ فلسفي يُعرَفُ باسم «الواجب المُطلَق» (Categorical Imperative)، ويمكن تفسير مقصده بأهمية تصرّف الإنسان الفرد وفقَ قاعدةٍ يمكن أن تصبح قانونًا جمعيا يسري على الجميع، ويفترض «كانط» أنّ الأخلاق لا تعتمد على النتائج أو الغايات، ولكن على نيّة الفاعل ومطابقة فعله للواجب الأخلاقي، ومن هذا المنطلق، تتربّع الإرادة الخيّرة المستوى الأعلى في فلسفة «كانط»؛ فيكون الفعلُ أخلاقيًا حال اعتماده احترام القانون الأخلاقي، وليس لأجل منافع أو مكاسب محتملة. عند محاولتنا لتمثيل هذا التصوّر الكانطيّ في الأخلاق على الذكاء الاصطناعي، نلحظ أنّه يفرض شروطًا صارمةً على خوارزميات الكائن الرقمي؛ فحال أننا أقدمنا على توظيف مبدأ «الواجب المطلق» في خوارزمية ذكيّة، فينبغي أن تكون هذه الخوارزمية موجهّةً إلى الانقياد لقواعدَ أخلاقيّة تُعامل الإنسان باعتباره غايةً في ذاتها لا مجرّد وسيلة، وبتصور أدق، لا ينبغي للخوارزمية الذكية أن تتخذ قراراتٍ ضارة بالبشر مهما كانت المنافع أو المكاسب المحتملة. لكن، ينبثق تساؤلٌ مهم: أتستطيع الآلة امتلاك «إرادةٍ خيّرة» وفقَ قاعدة «كانط» الأخلاقية؟ حيث تتعلق الإرادة برمتها بكينونة العقل الأخلاقي الواعي، وهنا لا ترتبط فلسفة «كانط» برصد نتيجة الفعل، ولكنها تركّز على النيّة الكامنة في باطنها؛ فيتطوّر السؤالُ: أيمكن لخوارزميات الذكاء الاصطناعي ذات البيانات الكبيرة والمنطق الرياضي أن تنفّذَ «النيّة» الخيّرة؟ أم ستظلّ حبيسةَ مسارات محدّدة سلفًا، مهما بدت مرنةً أو قادرةً على التعلُّم؟
في حين أننا نجدُ الأخلاقيّةَ النفعيّة لصاحبها الفيلسوف «جون ستيوارت ميل» تنحى منحى يشير إلى أن السعادة الكبيرة تتحقق عبر السلوك الأخلاقيّ، وبالتالي فلا قيمة يمنحها هذا المذهب الفلسفي إلا للنتائج دون الحاجة لوجود النيّات؛ فتقوميه للأفعال وفق معايير المنفعة الشاملة الناتجة، حتى لو استلزم الأمر في بعض الأحيان التضحية بمصلحة الأفراد من أجل الصالح العام. على عكس ما وجدناه في فلسفة «كانط» الأخلاقية؛ فإن الفلسفة النفعية تُظهر بعض المواءمة مع منطق خوارزميات الذكاء الاصطناعي؛ حيثُ تعتمد الخوارزميات -من حيث المبدأ الرياضي- مبدأ التحسين (Optimization) للمخرجات والنتائج، ولكن تقبع المشكلة في مبدأ مفهوم «السعادة» أو «المنفعة» عند الحديث عن مجتمعاتٍ تتباين في القيم والثقافات، وحينها من سيعرّف المنفعة؟ ومن يقرّر مستوى أهميّة سعادة مجموعة بشريّة قياسًا بمجموعات أخرى؟ بجانب أنّ البيانات التي تتعلّم منها الخوارزمية يحتمل احتواؤها على تحيّزات تاريخيّة أو ثقافيّة أو عرقيّة، فتقود إلى قرارات غير متكافئة بين فئات الناس. في مثل هذا السيناريو الواقعي، ستكون عملية الانتقال من الفضاء النظريّ -«المعنيّ بتحقيق السعادة للبشر»- إلى الفضاء الواقعي عمليةً مضطربةً من حيثُ عدم جدوى التطبيق الأخلاقي وتحققه المطلق، لأنّ توجيه الخوارزمية وفق غاية نفعيّة صِرفة يقود إلى مظاهر غير عادلة ولا أخلاقية تُفقد بعض الفئات حقوقها، ومن هذا المنطلق، يزداد السؤالُ الأخلاقي تعقيدا؛ فنسأل: هل تقبلُ مجتمعاتنا أن تُترجَم مبادئ المنفعة إلى خوارزميات تُمنح أولوية مضاعفة المنافع الاقتصادية وتحقيق مصالح سياسية أكبر، ولو على حساب منافع أفراد ومجتمعات يمكن أن تتضرر؟
تأتي «الفضيلة» عند «أرسطو» في مقدمة أولويات الفلسفة الأخلاقية؛ فيرى «أرسطو» أن الإنسانَ الأخلاقيّ هو مَن يكتسبُ الخُلقَ القويم ويطوِّر دوافع داخلية تمكِّنه من بلوغ السلوك المعتدل والأخلاقي، ولا ضرورة عند «أرسطو» بالواجب المطلق ولا بتحقيق المنفعة قدر ضرورة التركيز على تشكيل الإنسان الفاضل الأخلاقي عن طريق تحقيق التموضع الأخلاقي مع الواقع العملي واتخاذ القرار الأخلاقي المناسب وفقَ مقتضيات «الفضيلة»، ويقترب مبدأ الفضيلة الأرسطي من المكنون الإنساني المتعلق باتخاذ القرارات، وأهمية الجمع بين الخبرة والعقل والقيم المجتمعيّة. أمام تدفقات خوارزميات الذكاء الاصطناعي وزحفها المتسارع، تخرج إلينا الفلسفةُ الأرسطية في الأخلاق بتساؤل يناقش قدرة الخوارزمية الرقمية على تطوير «فضائلَ» تُماثل الفضائل التي ينتجها الإنسانُ ويمتلكها، ورغم إقرارنا بأنّ الخوارزميات الحديثة تتبنى «التعلّم العميق» المتمثّل في المحاكاة أو التعزيز (Reinforcement Learning) في منهج أقرب وصفا إلى «التربويّ»، ومع ذلك، فتتطلب الفضيلة الأرسطيّة خبرةً في الحياة ومَلَكةً إدراكيّةً ومعرفيّةً لعقلنة الموقف الأخلاقي وبعثه مسارًا ينبض بالحياة، وما نشير إليه بـ«التعلّم العميق» يمكن أن يوافق -في بعض الحالات- هذا المراد بمحاكاته لسلوكيات متوائمة مع المسار الأخلاقي المنشود، مع إقرارنا بافتقاره إلى «الفطنة الأخلاقية» وفق الشروط الأرسطيّة التي تعمل على تحقيق التوازن بين الغايات وتبايناتها وقيمها المتعددة مثل قيمة العدل والإحسان والرحمة كما يقتضي الواقع ويتطلب، ولا أتصوّر أننا قادرون على تحقيق هذا التوازن بمضمونه المطلق كون الخوارزميّات مصممة على التفاعل مع بيانات رقميّة معزولة عن خبرة الشعور الإنساني وأخلاقياته العميقة التي لا تترجمها البيانات ولن تستطيع لفقدانها قدرة ترجمة الوعي وأبجدياته المعقّدة.
عبر محطاتنا الفلسفية الثلاث الآنفة، يمكن أن نستنتج فشل هذه الفلسفات الثلاث في حل المشكلة الأخلاقيّة للذكاء الاصطناعي؛ فيستعرض كلٌّ منها مسارَه الخاص الذي يظهر عنصرًا ويفتقد العناصر الأخرى؛ فتبرز الأخلاقيّةُ الكانطيّة الكرامةَ الإنسانية وأولويّة المبادئ المعززة لحقوق الإنسان، وتذهب نفعية «ستيوارت» إلى تقديم أدواتٍ منهجيّةٍ لتقويم الأفعال وفقَ نتائجها، ويمكن أن يستفيد من مذهب النفعية الخوارزميات التي تتطلب اتخاذ قراراتٍ حساسة في زمنٍ وجيز مثل أنظمة القيادة الذاتيّة أو توجيه الطائرات من دون طيّار، وتغمرنا فضيلةُ «أرسطو» بفيضها الأخلاقي وبأهمية تشكيل الإنسان الأخلاقي المفعم بالقيم والعاطفة والعقلانية؛ لتؤكد على أن مبدأ الأخلاق ليس عمليةً حسابيّةً يمكن اختزالها في مجموعةِ نتائج ومخرجات. لكن مع التطويرات المصاحبة للذكاء الاصطناعي وخوارزمياته المتقدّمة، يستفز عقولَنا سؤالٌ أعمق: أيّ نوعٍٍ من «الفعل الأخلاقيّ» يمكن لخوارزمية موجهّة مسبّقًا أن تُنتجه؟ حال أن هذه الخوارزميات مفتقرةٌ إلى وجود «النيّة» حسب الفلسفة الكانطيّة، ولا تملك مظهرًا من مظاهر «الفطنة الأخلاقية» وفقَ المذهب الأرسطيّ، ولا تعرف مشاعرَ «اللذة والألم» كما تشير نفعيّة «ستيوارت»، فهل يكفي أن نُقوّم قراراتها استنادا إلى مستويات موافقتها للقواعد القانونيّة أو المنفعة العامة؟ ألا يخشى بعضنا أنّ الاعتماد المفرط على الأنظمة الرقمية في مسائلَ أخلاقيّة معقّدة يمكن أن يكرسَ المعنى الإنسانيّ وعمقه الواعي المعتمد على فهم السياقات الوجدانية وأفكارها الواعية التي لا أستبعد وجود ذاكرتها الكونية التي تحفظ عمق التجربة الإنسانية وتمنحها المعنى الأخلاقي الذي نحن أحق أن نملك أحقيّة توجيه منتجاتنا بما فيها الذكاء الاصطناعي إلى تبنيّه؟
د. معمر بن علي التوبي أكاديمي وباحث عُماني