تصف البياناتية Dataism الحالة أو الفلسفة المرتبطة بظهور علم البيانات الضخمة والأفكار المتعلقة به، حيث تُبنى البياناتية على مجموعة من المسلمات، وإشكالية هذه الأيديولوجيا نابعة من تلك المسلمات.

في مقالها المعنون بـ«The Dangerous Populist Science of Yuval Noah Harari» (خطر العلمية الشعبوية التي يقدمها يوفال نوح هراري حسب ترجمة مجلة الفلق) تنتقد دارشانا نارايانان Darshana Narayanan هراري أولا لأنه -حسب الكاتبة- يُضحي بالدقة العلمية في سبيل الإثارة Sensationalism، ولأن أعماله في المرتبة الثانية تشكو من الأخطاء العلمية. وفي مقابلة لها على The Zero Hour with RJ Eskow يتم التطرق باقتضاب إلى كون أعمال هراري ذات طبيعة سلطوية أو شمولية في موضوع التكنولوجيا، والتنبؤات التقنية المستقبلية.. هذا المقال يُركز على هذا الجانب تحديدا: علاقة البياناتية التي يتبناها هراري بالتسلط.

مع بزوغ علم البيانات بدايات القرن الحادي والعشرين كان الترويج للتكنولوجيا الجديدة معتمدا على فكرة أن بإمكان (أ) قياس وتكميم أي ظاهرة تقريبا، وتفترض (ب) أن تحليل كل هذه البيانات الضخمة سيأتي بقيمة غير مسبوقة تتعلق بفهم الظواهر وإمكانية التنبؤ على درجة عالية من الدقة، ما يعني قدرة الآلة أو الخوارزمية على التنبؤ بسلوكياتنا على نحو يوحي أنها تفهمنا أكثر مما نفهم أنفسنا حتى (ج) النماذج الإحصائية التي تشرح أو تتنبأ بالظواهر (من سلوكيات الاستهلاك، إلى احتمالية ارتكاب جريمة) على درجة عالية من التعقيد، وهي فوق ذلك غير قابلة للشرح، بمعنى أن بإمكانها التنبؤ بأنك ستصاب بمرض ما، لكن لا يمكنها أن تشرح كيف تم استنتاج هذه الخلاصة، عدم القابلية للشرح تأتي من أن النماذج تعتمد غالبًا التعالق الارتباطي وليس السببي.

تَبني فكرة أن رصد البيانات وتحليلها يُمكّن الآلة من معرفتك ومعرفة ما هو جيد لك حتى أكثر من نفسك أمر مشكل، لأن هذا سيعني أن علينا أن نثق في الخوارزميات وما تقترحه وما تقرره لنا، هذه السردية تؤكد أيضا مدى تعقيد القرارات المبنية على الذكاء الاصطناعي المعتمد على تعلم الآلة، وكيف أنها غير قابلة للتفسير أو الفهم.

وعندما تأتي هذه الآراء من العلماء والفلاسفة، فإنها تُعطي شركات التقنية شرعية التصرف لأنها وحدها المؤهلة للتعامل مع هذه التكنولوجيا المعقدة المستجدة، دون أن تُحملهم أي مسؤولية لمحاولة الشرح أو التواصل مع المستخدم، ثم إن اختزال هذه الظواهر المعقدة في نماذج وسرديات مبسطة مُضلل لأنك لابد أن تُضحي بالدقة العلمية في طريقك لتبسيط الأشياء لهذا الحد، هذا ما يفعله عدد من الفلاسفة والعلماء الشعبيون، إذ يصطفون في صف رؤوس المال بدل أن يكونوا قوة ناقدة مضادة للهيمنة الرأسمالية.

هذا يجعل قبول استخدام خوارزميات نصف مطبوخة، ولا تتجاوز دقتها التخمين العشوائي إلا بقليل أمرًا لا بأس به، بل ودليلا على التقدم التكنولوجي، وتجاوز صنوف الانحياز البشري.

لكن أكثر تحديدا، هناك أربعة أبعاد للمسألة تجعلها مسألة مُشكلة.

1- الاختزال والتبسيط: يمكن -وفق البياناتية- اختزال الوجود الإنساني في استعارة حاسوبية، وتبني سردية أنطولوجية مبسطة عن كون البشر مجرد آلات بيولوجية تُعالج خوارزمياتها المعلومات في ما نسميه -على نحو شاعري- الحياة.

هذا يعني أن زيادة القدرة الحاسوبية ستصل بنا إلى فهم من ناحية، وقدرة على المحاكاة من ناحية أخرى يتجاوز الفهم والابتكار البشري.

متى ما وُجدت آلة قادرة على معالجة كل البيانات الموجودة، فإنها ستصبح متفوقة على الكائن البشري بقدراته التحليلية المحدودة.

2- السلطوية: ستتحكم الخوارزميات في الكثير من -حتى لا نقول معظم- شؤون حياتنا، فيما تقع على المستخدم مسؤولية الانفتاح، التكيف، وقبول الواقع الجديد وإن لم يفهمه تماما.

3- الحتمية: قضية أن الآلة ستحكم بل وتتفوق على البشر ليست قضية احتمالية بل هي مسألة وقت، ومتى ما أصبحت البيانات مفتوحة، والقوى الحاسوبية قادرة على معالجة تلك البيانات فإنها ستكون قادرة على التنبؤ بكل شيء، والتحكم في شؤون حياتنا.

4- التعقيد وعدم إمكانية التفسير: إن أنظمة الذكاء الاصطناعي المعتمدة على تعلم الآلة أعقد مما يمكن شرحها؛ لذا من غير الممكن المجادلة بشأن صحة قراراتها.

في كتابها «Weapons of Math Destruction» (أسلحة التدمير الرياضياتية) تُدرج كاثي أونيل Cathy O›Neil قائمة من الأنظمة الحاسوبية التي طُورت -بحسن نية- لدعم صناعة القرار والتي أدت إلى اتخاذ قرارات غير عادلة من جهة، قرارات لا سبيل إلى تبريرها من قبل النظام من جهة أخرى. وضع -على سبيل المثال- عُمدة واشنطن Adrian Fenty في 2007 على عاتقه تحسين وضع المدارس متدنية الأداء في المدينة، كان لا ينجح وقتها سوى طالب واحد من كل طالبين في التخرج بعد الصف التاسع.

عين العُمدة مُصلحًا تربويًا لحل المشكلة اسمه Michelle Rhee. كانت النظرية القائمة وقتها تقترح أن مرد الأداء المتدني هو عدم كفاءة المعلمين، فما كان من المُصلح إلا أن اعتمد خوارزمية لتقييم أداء المعلمين، وطرد الذين يقعون في ذيل القائمة (2٪ من مجموع المعلمين الذين قُيموا، وفي السنة اللاحقة 5٪ من الباقين)، كان الطرد يعتمد على كل من الدرجة التي تمنحها الأداة للمعلم، بالإضافة إلى شهادات الإدارة والآباء.

هذا يعني أن التقارير القادمة منهم -مهما بلغت إيجابيتها- قد لا تشفع للمعلم، وقد ينتهي به الأمر للطرد بناء على الدرجة التي يقترحها النظام. هذا بدا إيجابيا بالنسبة للقائمين على النظام، لأنه سيعني أن المعلم يُقيم «بموضوعية» على نحو خالٍ من المحسوبية وأشكال التفضيل أو التعصب البشري. إذ اعتمد نظام تقييم المعلمين على قياس ما إذا كان مستوى الطالب يتحسن حسب المتوقع في الاختبارات القياسية، لكنه أيضا يأخذ في الحسبان واقع أن كفاءة المعلم ليست العنصر الوحيد المتعلق بأداء الطلاب، فهناك الظروف الاجتماعية-الاقتصادية التي قد تؤثر في أدائهم. بهذا كان على الخوارزمية تطوير نموذج معقد ومتعدد المتغيرات.

معرفة المعلمين أن تقييم أدائهم يعتمد على نتائج اختبارات طلبتهم جعلتهم يركزون عليها دون المهارات الأخرى مثل تشجيع التفكير الإبداعي أو النقدي. بل كانوا في بعض الحالات يُساعدون الطلبة لضمان إحرازهم نتائج جيدة.

هذا يعني أن معلميهم في الفصل التالي سيتورطون بطلبة ذوي درجات عالية لا تعكس مستواهم الحقيقي. وإذا ما كان معلم الصف الجديد أمينا، فقد ينتهي الأمر بطلبته حاصلين على نتائج تعكس مستواهم، لكنها أقل من الأداء المتوقع، وبذلك يكون عرضة للطرد.

ما هذا المثال إلا نموذج على تعقيد مسألة القياس. وأن البيانات لا تكشف بالضرورة الحقائق التي نعتقد أنها تكشفها. وهي -أخيرا- دليل على أننا في بداية الطريق نحو التكميم. هذا يعني أنه من المرجح أن تُقدم شركات التقنية أدوات تعلو سيئاتها على حسناتها، وأن محاولة إقناع منتقدي هذه الأدوات أن الخوارزميات أو القرارات المعتمدة على البيانات فوق النقد، وتشجيعهم على قبولها باعتبار أنها الواقع الجديد -وهو تحديدا ما تفعله أيديولوجية البياناتية- لهو أمر مُشكل.

كثير من أنظمة تعلم الآلة المختصة بصناعة القرارات اليوم لا تنجح إلا في فعل شيء وحيد وهو جعل القرارات التعسفية آلية.

نوف السعيدية كاتبة وباحثة عمانية في مجال فلسفة العلوم