تهديد شفافية العالم
أثارت إتاحة روبوت الدردشة (ChatGPT) للعامة وبالمجان، ثورة في كثير من المجالات. ومع وجود أوراق علمية تُدرج الروبوتات كمساهمين في العمل، يتخوف الأكاديميون من أنّ تهدد مثل هذه الأدوات مبادئ الشفافية والأمانة والمسؤولية التي يقوم عليها العلم. من هنا، تأتي محاولات الناشرين اليوم لوضع القواعد العامة للتعامل مع النصوص التي تُنتج آليا عبر أدوات الذكاء الاصطناعي، على نحو لا يتجاهل الإمكانيات التي توفرها مثل هذه التقنيات. نُترجم اليوم الرسالة التحريرية التي نشرتها (Nature) بتاريخ 24 يناير 2023، والهادفة لمعالجة القضية، ووضع القواعد العامة لاستخدام نماذج الذكاء الاصطناعي اللغوية في الأوراق والمقالات العلمية.. على النحو الآتي:
كان واضحا -ولعدة سنوات الآن- قدرة الذكاء الاصطناعي على إنتاج لغة طليقة، تتمخض عن جُملٍ يصعب التفريق بينها وبين تلك التي يكتبها البشر. ذكرت مجلة (Nature) العام الماضي، أن بعض العلماء أصبحوا يستخدمون روبوتات الدردشة بالفعل كمساعدٍ بحثي؛ لإعانتهم على ترتيب أفكارهم، تقديم تغذية راجعة لعملهم، المساعدة في كتابة الأكواد، وتلخيص الأدبيات.
إلا أن إطلاق روبوت الدردشة المعتمد على الذكاء الاصطناعي (ChatGPT) في نوفمبر، أتاح إمكانيات هذه الأدوات -المعروفة بالنماذج الضخمة للغة (LLMs)- للعامة. مطوروها (OpenAI في سان فرانسيسكو، كاليفورنيا) جعلوها سهلة الوصول لمن لا يملكون خبرة تقنية. الملايين يستخدمونها اليوم، لتكون النتيجة دفق ممتعٌ -ومخيف بعض الشيء- من تجارب كتابة أدت إلى تنامي الإثارة والقلق بشأن هذه الأدوات.
بإمكان روبوت الدردشة (ChatGPT) كتابة تقارير لا بأس بها للطلاب، تلخيص أوراق بحثية، الإجابة على أسئلة على نحو جيد بما يكفي لتخطي الامتحانات الطبية، وإنتاج أكواد برمجية مفيدة. لقد نجح في كتابة خلاصات بحثية جيدة بما يكفي للحد الذي صعب عنده على العلماء التفطن إلى أن كاتبها كمبيوتر. يُمكن له أيضا -وهو ما يُقلق المجتمع- تسهيل إنتاج البريد العشوائي (spam)، برامج الفدية (ransomware)، والبرمجيات الخبيثة الأخرى. بالرغم من أن مطوريه (OpenAI) حاولوا وضع محددات لما يُمكن لروبوت الدردشة أن يفعله، إلا أن المستخدمين وجدوا بالفعل طرقا للالتفاف حولها.
الهاجس الأول للمجتمع البحثي هو ادعاء الطلبة والعلماء أن نصا مكتوبا عبر نموذج لغوي هو لهم، أو استخدام هذه النماذج على نحو تبسيطي (مثل تقديم مراجعة غير كاملة للأدبيات)، وإنتاج أعمال لا يمكن الوثوق بها. عدد من الأوراق غير المنشورة (preprints) والمقالات المنشورة قد أوردت بالفعل ChatGPT باعتباره أحد مؤلفي الورقة الرسميين.
لهذا فقد حان الوقت ليضع الباحثون والناشرون قواعد الاستخدام الأخلاقي للنماذج الضخمة للغة. صاغت (Nature) -رفقة غيرها من الجورنالات المنشورة عبر شركة (Springer Nature)- المبدئيين التاليين الذين أُضيفا إلى دليل الناشرين الحالي. وفقا لتقارير (Nature) الإخبارية، يُتوقع من ناشري المجلات العلمية تبني موقفا مشابها.
أولا، لا يُقبل أي نموذج ضخم للغة باعتباره مؤلفا شريكا للأوراق العلمية. إذ أن أي إسناد تأليفي يحمل معه مسؤولية تجاه العمل، ولا يُمكن تحميل أدوات الذكاء الاصطناعي هذا النوع من المسؤولية.
ثانيا، على الباحثين الذين يستخدمون أيا من أدوات النماذج الضخمة للغة أن يُوثقا هذا الاستخدام في جزئية الشكر والعرفان (acknowledgements sections). وإذا خلت الورقة من هذه الجزئية، فيُمكن للباحثين توثيق ذلك في المقدمة أو في جزئية أخرى مناسبة.
تبين الأنماط
هل بإمكان المحررين والناشرين تبين النصوص المنتجة عبر النماذج الضخمة للغة؟ حاليا، الجواب هو: من المحتمل. يُمكن تحديد المخرجات الخام لـ(ChatGPT) عبر الفحص الدقيق، خصوصا عند إيراد أكثر من فقرة، وحين يُحيل الموضوع لعمل علمي. هذا لأن النماذج الضخمة للغة تُنتج نمطا من الكلمات بناء على التعالق الإحصائي في بيانات التدريب، والسؤال المطروح من قبل المستخدم، ما يعني أن المخرجات قد تبدو عامة وبليدة، أو قد تحوي أخطاءً طفيفة. علاوة على ذلك، فهي غير قادرة حتى الآن على الإحالة إلى المصادر التي اعتمدت عليها لتوثيق مخرجاتها.
لكن في المستقبل، يُحتمل أن يتجاوز مطورو الذكاء الاصطناعي هذه العقبات. فهناك بالفعل تجارب لربط روبوتات الدردشة بأدوات الإحالة إلى المصادر -على سبيل المثال-. آخرون يدربون روبوتات الدردشة على العمل مع نصوص علمية مختصة.
تعد بعض الأدوات باكتشاف المخرجات المعتمدة على النماذج الضخمة للغة، وناشرو (Nature)، و(Springer Nature) هم من بين العاملين على تطوير هذه التقنيات. مع ذلك فنحن نعي أن النماذج الضخمة للغة ستتحسن، وستتحسن بسرعة. ثمة أمل بأن يتمكن مبتكرو النماذج الضخمة للغة من وسم مخرجات أدواتهم بنوع من الختم المائي، لكن حتى لو نجحوا في هذا فما من ضامن أنها ستكون معصومة من سوء الاستخدام.
منذ بواكيره، أُدير العلم باعتباره منفتحا وشفافا بشأن المناهج والأدلة، بغض النظر عن الموضات التقنية الشائعة. على الباحثين أن يسألوا أنفسهم عن الكيفية التي يُمكن أن يُحافظ بها على شفافية وموثوقية الطرائق التي تولد بها المعرفة إذا ما استخدموا هم أو زملائهم برمجيات تعمل أساسا على نحو غامض.
لهذا تضع (Nature) هذه المبادئ: يجب أن يتحلى البحث في جوهره بالشفافية في منهجه، والأمانة والصدق من قبل مؤلفيه. هذا -في النهاية- الأساس الذي يعتمد عليه العلم ليتقدم.
نوف السعيدية كاتبة وباحثة عُمانية في مجال فلسفة العلوم