رئيس التحرير
خالد مهران
count
count

خبير بريطاني: عدم تنظيم الذكاء الاصطناعي بشكل صارم يخلق تهديدًا أمنيًا

الذكاء الاصطناعي
الذكاء الاصطناعي

حذر أحد رواد الذكاء الاصطناعي من أن تجاهل أي دولة لتنظيم الذكاء الاصطناعي يظهر "سوء فهم كامل" ويمكن أن يشكل تهديدات مُتعددة للأمن القومي والسيبراني لتلك الدولة.

وقال البروفيسور البريطاني ستيوارت راسل إن رفض الحكومات تنظيم الذكاء الاصطناعي بتشريعات صارمة خطأ فادح، مما يزيد من خطر الاحتيال والتضليل والإرهاب البيولوجي. 

ويأتي ذلك في الوقت الذي تواصل فيه العديد من الدول مقاومة إنشاء نظام أكثر صرامة بسبب المخاوف من أن التشريع قد يؤدي إلى إبطاء النمو، في تناقض صارخ مع موقف الاتحاد الأوروبي والولايات المتحدة والصين.

خنق الابتكار

قال البروفيسور راسل: هناك شعار يشير إلى أن "اللوائح التنظيمية تخنق الابتكار" حيث ظلت الشركات تهمس به في آذان الوزراء منذ عقود، وهو ما يعد سوء فهم وأمر خاطئ تمامًا.

وأضاف: "الصناعة المُنظمة التي توفر منتجات وخدمات آمنة ومفيدة - مثل الطيران - تعزز الابتكار والنمو على المدى الطويل".

وقد دعا العالم سابقًا إلى دمج "مفتاح القتل" - وهو رمز مكتوب لاكتشاف ما إذا كانت التكنولوجيا يتم إساءة استخدامها - في البرنامج لإنقاذ البشرية من الكوارث.

في العام الماضي، قال الخبير البريطاني والذي يعمل الآن أستاذًا لعلوم الكمبيوتر في جامعة كاليفورنيا، بيركلي، إن هناك حاجة إلى معاهدة عالمية لتنظيم الذكاء الاصطناعي قبل أن تتقدم البرمجيات إلى النقطة التي لم يعد من الممكن السيطرة عليها. 

وحذر من أن نماذج تعلم اللغة وتكنولوجيا التزييف العميق في مجال الذكاء الاصطناعي، يمكن استخدامها في الاحتيال والتضليل والإرهاب البيولوجي إذا تركت دون رادع.

وعلى الرغم من دعوة المملكة المتحدة لقمة عالمية للذكاء الاصطناعي في العام الماضي، قالت حكومة ريشي سوناك إنها ستمتنع عن وضع تشريعات محددة للذكاء الاصطناعي على المدى القصير لصالح نظام خفيف.

وتشير التقارير إلى أن الحكومة من المقرر أن تنشر سلسلة من الاختبارات التي يجب الوفاء بها لتمرير قوانين جديدة بشأن الذكاء الاصطناعي.

ومن المقرر أن ينشر الوزراء معايير في الأسابيع المقبلة حول الظروف التي سيفرضون فيها قيودًا على نماذج الذكاء الاصطناعي القوية التي أنشأتها شركات رائدة مثل OpenAI وGoogle.

على النقيض من ذلك، أصدر الرئيس الأمريكي جو بايدن أمرا تنفيذيا لإجبار شركات الذكاء الاصطناعي على الكشف أنها تعالج تهديدات للأمن القومي وخصوصية المستهلك، كما قدمت الصين إرشادات مفصلة حول تطوير الذكاء الاصطناعي مع التركيز على الحاجة إلى التحكم في المحتوى.