رئيس التحرير
خالد مهران

الذكاء الاصطناعي يوقع حكومة جنوب إفريقيا في مأزق

صورة تعبيرية
صورة تعبيرية

قررت حكومة جنوب إفريقيا سحب مسودة سياستها الوطنية المتعلقة بتقنية الذكاء الاصطناعي بعد اكتشاف أن بعض القواعد فيها مُولّدة بواسطة الذكاء الاصطناعي، وتستشهد بمصادر وهمية.

وسحب وزير الاتصالات، سولي مالاتسي، مسودة السياسة بعد اكتشافه أن ستة على الأقل من أصل 67 مرجعًا أكاديميًا فيها هي مجرد أوهام مُولّدة بواسطة الذكاء الاصطناعي، وتستشهد بمقالات علمية غير موجودة.

وطُرحت مسودة السياسة للتعليق العام، وسعت إلى ترسيخ مكانة البلاد كدولة رائدة في ابتكارات الذكاء الاصطناعي، مع محاولة معالجة التحديات الأخلاقية والاجتماعية والاقتصادية المرتبطة باستخدامه.

وحددت المسودة خططًا لإنشاء مؤسسات جديدة في البلاد للإشراف على استخدام الذكاء الاصطناعي، بما في ذلك لجنة وطنية للذكاء الاصطناعي، ومجلس لأخلاقيات الذكاء الاصطناعي، وهيئة تنظيمية للذكاء الاصطناعي.

كما حددت مسودة القواعد خططًا لإعفاءات ضريبية ومنح ودعم لتشجيع تعاون القطاع الخاص في بناء بنية تحتية للذكاء الاصطناعي في البلاد، ومن المتوقع مراجعتها قبل إعادة طرحها للتعليق العام.

وقد انكشفت المشكلة عندما اكتشف موقع News24 الجنوب أفريقي أن ستة على الأقل من أصل 67 مرجعًا أكاديميًا في الوثيقة غير موجودة، بينما كانت المجلات التي استشهدت بها حقيقية.

وأكد محررو المجلات، بما فيها مجلة جنوب إفريقيا للفلسفة، ومجلة الذكاء الاصطناعي والمجتمع، ومجلة الأخلاق والفلسفة الاجتماعية، بشكل مستقل أن المقالات المذكورة مزيفة.

وصرح وزير الاتصالات بأن المسؤولين عن صياغة السياسة سيتحملون عواقب ذلك.

وكتب على موقع X: "يثبت هذا التقصير غير المقبول أهمية الرقابة البشرية الدقيقة على استخدام الذكاء الاصطناعي. إنه درس نتعلمه بتواضع".

الاستخدام الأكاديمي لتقنية الذكاء الاصطناعي

ويسلط هذا الضوء على مشكلة متنامية تتمثل في استخدام الأكاديميين والإداريين للذكاء الاصطناعي التوليدي في البحث وكتابة الأبحاث.

ووجدت دراسة نُشرت في مجلة Nature أن أكثر من 2.5% من الأوراق البحثية المنشورة عام 2025 احتوت على مرجع واحد على الأقل يُحتمل أن يكون وهميًا، مقارنةً بنسبة 0.3% فقط عام 2024.

ويعني هذا وجود أكثر من 110،000 ورقة بحثية منشورة عام 2025 تحتوي على مراجع غير صالحة، "وهمية" بفعل الذكاء الاصطناعي.

وهذه مخرجاتٌ واثقةٌ ولكنها مُختلقة، تُنتجها نماذج الذكاء الاصطناعي عندما تستشعر نقصًا في بياناتها في ذلك المجال.

صُممت نماذج اللغة الكبيرة، مثل ChatGPT من OpenAI وGemini من Google، للتنبؤ بالكلمة التالية المُحتملة في سلسلة من الكلمات، وليس للتحقق من صحتها تحديدًا.

لذا، إذا وجد نموذج الذكاء الاصطناعي نقصًا في البيانات في مجالٍ ما، فإنه يملأ الفراغات بمعلومات تبدو معقولة ظاهريًا، ولكنها خاطئة.

ويستخدم نموذج الذكاء الاصطناعي بيانات التدريب الخاصة به للتنبؤ بشكل الاقتباس، ويُنتج بعض المراجع التي تبدو موثوقة، ولكنها غير موجودة في الواقع.

ويشير هذا أيضًا إلى الحاجة المُتزايدة للإشراف البشري الدقيق على استجابات الذكاء الاصطناعي، خاصةً عند استخدامه من قِبل الأكاديميين والجهات الرسمية.