فرضت سامسونج -وفقا لتقرير نشرته بلومبرغ الشهر الفائت- قيودا على موظفيها عند استخدام أنظمة الذكاء الاصطناعي التوليدية «generative AI» على الأجهزة المملوكة للشركة والشبكات الداخلية. كان الموظفون قد استخدموا ChatGPT لتصحيح الأكواد التي يعملون عليها، أو لتلخيص ملاحظات الاجتماعات. عكست مذكرة بُعثت إلى الموظفين -وفقا للتقرير- قلقا حول المخاطر الأمنية لأدوات الذكاء الاصطناعي، مثل تسريب معلومات حساسة؛ مخاوف أخرى تتعلق بالخصوصية دفعت بعض المؤسسات الأخرى لتحذو حذو سامسونج.
لكن Nature تُقدم اعتراضات من نوع آخر، على رأسها الشفافية، وموثوقية الطرق التي تُولد بها المعرفة (أي مدى إمكانية أن نثق بنص أنتجته أدوات الذكاء الاصطناعي). سبق أن نشرت المجلة مطلع السنة قواعد للاستخدام الأخلاقي للنماذج الضخمة للغة المعتمدة على الذكاء الاصطناعي مثل روبوت الدردشة (ChatGPT). فمع وجود أوراق علمية تُدرج الروبوتات ضمن قائمة مؤلفي العمل، يتخوف الأكاديميون من أنّ توفر مثل هذه الأدوات يُهدد مبادئ الشفافية والأمانة والمسؤولية التي يقوم عليها العلم. أتت محاولة المجلة لوضع القواعد العامة للتعامل مع النصوص التي تُنتج آليا عبر أدوات الذكاء الاصطناعي، على نحو لا يتجاهل الإمكانيات التي توفرها مثل هذه التقنيات. يُمكن للمهتمين الرجوع لترجمة المقال المنشورة على هذه الصفحة بتاريخ 2 مارس 2023.
نشرت المجلة هذا الشهر تنويها تشرح فيه لماذا لا تقبل بنشر الصور والفيديوهات التي تنتجها أدوات الذكاء الاصطناعي التوليدية. قالت فيه أن عملية النشر سواء كانت تُعنى بالنشر العلمي أو الفني، تستلزم درجة من الشفافية، أي قدرة على تتبع المصادر للتحقق من صحة ودقة المصادر التي تُبني عليها النتيجة التي يولدها النظام. تأتي أهمية التتبع ليس لإعطاء كريديت فحسب (أو حتى جزء من الأرباح) بل لتحميل المسؤولية أيضا. العوامل الأخرى -التي دفعت المجلة لتبني هذا الموقف- هي الموافقة (consent) والإذن (permission) سواء عندما يتم استخدام صور أشخاص حقيقيين (قد يُمانعون استخدام صورهم)، أو يُبنى على أعمال فنية (لا يأخذ فيها النظام إذنا من أصحابها كما تجري العادة مع الأعمال الخاضعة لقوانين الطباعة والنشر وقوانين الملكية الفكرية).
ثمة كتاب هزلي ظهر مؤخرا بعنوان «Zarya of the Dawn» تم إبداع صوره عبر أداة توليد الصور المعتمدة على الذكاء الاصطناعي «Midjourney». بعد تبادل قانوني أصدر مسؤول حقوق الطبع والنشر بالولايات المتحدة في فبراير حكمه بأن تعود حقوق ملكية العمل ككل، والنصوص الواردة فيه للمؤلف، غير أن العمل البصري الفني (الصور التي ولدها الذكاء الاصطناعي) غير محفوظ الملكية، وغير محمية بقوانين حقوق الطبع والنشر.
لا تُعنى قوانين الملكية الفكرية -بشكلها الحالي- بالمُبدعات التي ينتجها غير البشر. تزداد الأنظمة تعقيدا، بينما لا يبدو أن ثمة أي إجماع في الأفق حول الطريقة التي يجب أن تحدث بها القوانين للتماشي مع المستجدات.
في ضوء هذه المواقف من استخدام أنظمة الذكاء الاصطناعي التوليدية، يبدو أن الحذر هو ما يحكم الجو العام داخل المؤسسات. هذا حتى ظهور الأنظمة والقوانين التي تنظم المجال. أو بانتظار تحديثات في طريقة عمل أدوات الذكاء الاصطناعي بحيث ترفع شيئا من الغموض حول طريقة استخدامها للمصادر.
بالطبع هذا ليس بالأمر السهل أو ربما الممكن حتى. إذ تتدرب الآلات على آلاف البيانات، وهي تستمر بالتدرب والتحسن مع كل عمل يُسند إليها. وتتبع المصادر في هذه الحال قد يكون بصعوبة تحليل لماذا يُفكر إنسان ما بفكرة معينة، وكيف رسم فنان ما لوحة بالأسلوب الذي اختاره.
لطالما خضع إنتاج المعرفة والفنون لنظام من النزاهة والشفافية. يصعب تحديد الطريقة التي يجب أن يتعامل بها الفرد مع كل التحديثات التكنولوجية المتاحة. فهي من جهة تُوفر إمكانيات كبيرة، إذا ما تجاهلها الفرد شعر أنه خارج سباق المنافسة، وأن العالم يتقدم فيما يُخلفه وراءه. ولأن الموضوع مرتبط بالتكنولوجيا يترافق هذا مع شعور بالخوف. خوف أن تسود هذه الأدوات يوما ما في المستقبل (سواء كانت جاهزة أو غير جاهزة لأن تسود)، فيتعين عليه أن يتعامل مع أُميّته. رغم أن التخوفات التي يطرحها ليست بلا قيمة، بل هي مقلقة على عدة أصعدة، بداية من مسائل الخصوصية، وانتهاء بالآثار البيئية لعمليات الحوسبة المستنزفة للطاقة.
الخوف من تفويت الفرص يحكم كثيرا من قراراتنا الشخصية اليوم، تماما مثلما يحكم الأعمال والمؤسسات. ثمة توتر بين قوتين: التريث عند مواجهة التكنولوجيا الجديدة للتأكد من أنها آمنة ومن أنها منسجمة مع معاييرك وقيمك، والمخاطرة بتبنيها لضمان الالتزام بشرط التحديث والتقدم. ولا يبدو أن ثمة مخرجا من حمى «التقدم» هذه، حتى إن أثبتت أنها كثيرا ما تأتي بعكس النتائج المرجوة.
ثمة تخويف دائم من أي تكنولوجيا جديدة (أتمتة العمليات الصناعية مثلا) إن كان بشأن خسارة الوظائف، أو الآثار السلبية المحتملة لها. ولأننا سمعنا الحجج ذاتها مرارا نهون بشكل ما (أو على الأقل لا نعطي الأمر حقه) عند مواجهة نوع من التكنولوجيا يحتاج -بشكل واضح- للتريث ومسائلة طرق استخدامه. إلا أن هذا شيء لا بد منه.
لكن Nature تُقدم اعتراضات من نوع آخر، على رأسها الشفافية، وموثوقية الطرق التي تُولد بها المعرفة (أي مدى إمكانية أن نثق بنص أنتجته أدوات الذكاء الاصطناعي). سبق أن نشرت المجلة مطلع السنة قواعد للاستخدام الأخلاقي للنماذج الضخمة للغة المعتمدة على الذكاء الاصطناعي مثل روبوت الدردشة (ChatGPT). فمع وجود أوراق علمية تُدرج الروبوتات ضمن قائمة مؤلفي العمل، يتخوف الأكاديميون من أنّ توفر مثل هذه الأدوات يُهدد مبادئ الشفافية والأمانة والمسؤولية التي يقوم عليها العلم. أتت محاولة المجلة لوضع القواعد العامة للتعامل مع النصوص التي تُنتج آليا عبر أدوات الذكاء الاصطناعي، على نحو لا يتجاهل الإمكانيات التي توفرها مثل هذه التقنيات. يُمكن للمهتمين الرجوع لترجمة المقال المنشورة على هذه الصفحة بتاريخ 2 مارس 2023.
نشرت المجلة هذا الشهر تنويها تشرح فيه لماذا لا تقبل بنشر الصور والفيديوهات التي تنتجها أدوات الذكاء الاصطناعي التوليدية. قالت فيه أن عملية النشر سواء كانت تُعنى بالنشر العلمي أو الفني، تستلزم درجة من الشفافية، أي قدرة على تتبع المصادر للتحقق من صحة ودقة المصادر التي تُبني عليها النتيجة التي يولدها النظام. تأتي أهمية التتبع ليس لإعطاء كريديت فحسب (أو حتى جزء من الأرباح) بل لتحميل المسؤولية أيضا. العوامل الأخرى -التي دفعت المجلة لتبني هذا الموقف- هي الموافقة (consent) والإذن (permission) سواء عندما يتم استخدام صور أشخاص حقيقيين (قد يُمانعون استخدام صورهم)، أو يُبنى على أعمال فنية (لا يأخذ فيها النظام إذنا من أصحابها كما تجري العادة مع الأعمال الخاضعة لقوانين الطباعة والنشر وقوانين الملكية الفكرية).
ثمة كتاب هزلي ظهر مؤخرا بعنوان «Zarya of the Dawn» تم إبداع صوره عبر أداة توليد الصور المعتمدة على الذكاء الاصطناعي «Midjourney». بعد تبادل قانوني أصدر مسؤول حقوق الطبع والنشر بالولايات المتحدة في فبراير حكمه بأن تعود حقوق ملكية العمل ككل، والنصوص الواردة فيه للمؤلف، غير أن العمل البصري الفني (الصور التي ولدها الذكاء الاصطناعي) غير محفوظ الملكية، وغير محمية بقوانين حقوق الطبع والنشر.
لا تُعنى قوانين الملكية الفكرية -بشكلها الحالي- بالمُبدعات التي ينتجها غير البشر. تزداد الأنظمة تعقيدا، بينما لا يبدو أن ثمة أي إجماع في الأفق حول الطريقة التي يجب أن تحدث بها القوانين للتماشي مع المستجدات.
في ضوء هذه المواقف من استخدام أنظمة الذكاء الاصطناعي التوليدية، يبدو أن الحذر هو ما يحكم الجو العام داخل المؤسسات. هذا حتى ظهور الأنظمة والقوانين التي تنظم المجال. أو بانتظار تحديثات في طريقة عمل أدوات الذكاء الاصطناعي بحيث ترفع شيئا من الغموض حول طريقة استخدامها للمصادر.
بالطبع هذا ليس بالأمر السهل أو ربما الممكن حتى. إذ تتدرب الآلات على آلاف البيانات، وهي تستمر بالتدرب والتحسن مع كل عمل يُسند إليها. وتتبع المصادر في هذه الحال قد يكون بصعوبة تحليل لماذا يُفكر إنسان ما بفكرة معينة، وكيف رسم فنان ما لوحة بالأسلوب الذي اختاره.
لطالما خضع إنتاج المعرفة والفنون لنظام من النزاهة والشفافية. يصعب تحديد الطريقة التي يجب أن يتعامل بها الفرد مع كل التحديثات التكنولوجية المتاحة. فهي من جهة تُوفر إمكانيات كبيرة، إذا ما تجاهلها الفرد شعر أنه خارج سباق المنافسة، وأن العالم يتقدم فيما يُخلفه وراءه. ولأن الموضوع مرتبط بالتكنولوجيا يترافق هذا مع شعور بالخوف. خوف أن تسود هذه الأدوات يوما ما في المستقبل (سواء كانت جاهزة أو غير جاهزة لأن تسود)، فيتعين عليه أن يتعامل مع أُميّته. رغم أن التخوفات التي يطرحها ليست بلا قيمة، بل هي مقلقة على عدة أصعدة، بداية من مسائل الخصوصية، وانتهاء بالآثار البيئية لعمليات الحوسبة المستنزفة للطاقة.
الخوف من تفويت الفرص يحكم كثيرا من قراراتنا الشخصية اليوم، تماما مثلما يحكم الأعمال والمؤسسات. ثمة توتر بين قوتين: التريث عند مواجهة التكنولوجيا الجديدة للتأكد من أنها آمنة ومن أنها منسجمة مع معاييرك وقيمك، والمخاطرة بتبنيها لضمان الالتزام بشرط التحديث والتقدم. ولا يبدو أن ثمة مخرجا من حمى «التقدم» هذه، حتى إن أثبتت أنها كثيرا ما تأتي بعكس النتائج المرجوة.
ثمة تخويف دائم من أي تكنولوجيا جديدة (أتمتة العمليات الصناعية مثلا) إن كان بشأن خسارة الوظائف، أو الآثار السلبية المحتملة لها. ولأننا سمعنا الحجج ذاتها مرارا نهون بشكل ما (أو على الأقل لا نعطي الأمر حقه) عند مواجهة نوع من التكنولوجيا يحتاج -بشكل واضح- للتريث ومسائلة طرق استخدامه. إلا أن هذا شيء لا بد منه.