رئيس التحرير
خالد مهران
count
count

خبراء: لا يوجد دليل على إمكانية التحكم في الذكاء الاصطناعي

صورة تعبيرية
صورة تعبيرية

زعم أحد الخبراء أنه لا يوجد دليل على إمكانية التحكم في الذكاء الاصطناعي وجعله آمنًا، وقال رومان في يامبولسكي، عالم الكمبيوتر الروسي من جامعة لويزفيل، إن حتى الضوابط المعروفة لن تكون كافية لحمايتنا من إعادة تشكيل المجتمع بواسطة الذكاء الاصطناعي، ربما للأسوأ.

وقال الدكتور يامبولسكي إنه لا ينبغي حذف أي شيء في محاولة لضمان أن الذكاء الاصطناعي لا يعرضنا للخطر.

وقال إنه توصل إلى هذا الاستنتاج بعد مراجعة مفصلة للمؤلفات العلمية الموجودة، والتي سيتم نشرها في كتاب قادم.

وقال الدكتور يامبولسكي في بيان: "إننا نواجه حدثًا شبه مؤكد مع احتمال التسبب في كارثة وجودية، ولا عجب أن الكثيرين يعتبرون هذه المشكلة هي أهم مشكلة واجهتها البشرية على الإطلاق، وقد تكون النتيجة الازدهار أو الانقراض، ومصير الكون على المحك".

وأظهر البحث الذي أجري لهذا الكتاب - الذكاء الاصطناعي: غير قابل للتفسير، ولا يمكن التنبؤ به، ولا يمكن السيطرة عليه - أنه لا يوجد "دليل" علمي على أنه سيكون من الممكن بالفعل حل مشكلة الذكاء الاصطناعي الذي لا يمكن السيطرة عليه.

وبما أنه يبدو أنه لن يكون من الممكن السيطرة على أي ذكاء اصطناعي بشكل كامل، فمن المهم إطلاق "جهد كبير للسلامة في مجال الذكاء الاصطناعي" لضمان جعله آمنًا قدر الإمكان.

ولكن حتى في هذه الحالة، قد لا يكون من الممكن حماية العالم من تلك المخاطر: فعندما يصبح الذكاء الاصطناعي أكثر قدرة، تزداد فرص الإخفاقات في مجال السلامة، لذلك لن يكون من الممكن الحماية من كل خطر.

علاوة على ذلك، فإن العديد من أنظمة الذكاء الاصطناعي هذه غير قادرة على شرح كيفية توصلها إلى الاستنتاجات التي توصلت إليها. يتم استخدام مثل هذه التكنولوجيا بالفعل في أنظمة مثل الرعاية الصحية والخدمات المصرفية، ولكننا قد لا نكون قادرين على معرفة كيفية اتخاذ هذه القرارات المهمة فعليًا.

ما هي خطورة الذكاء الاصطناعي؟

وقال الدكتور يامبولسكي في بيان: "إذا اعتدنا على قبول إجابات الذكاء الاصطناعي دون تفسير، والتعامل معه بشكل أساسي كنظام أوراكل، فلن نكون قادرين على معرفة ما إذا كان يبدأ في تقديم إجابات خاطئة أو متلاعبة".

وأشار إلى أنه حتى النظام الذي تم تصميمه خصيصًا لاتباع الأوامر البشرية قد يواجه مشكلات: فقد تتعارض هذه الأوامر مع بعضها البعض، أو قد يسيء النظام تفسيرها، أو يمكن استخدامها بشكل ضار.

ويمكن تجنب ذلك من خلال استخدام الذكاء الاصطناعي كمستشار مع الإنسان الذي يتخذ القرارات، ولكن إذا أرادت أن تفعل ذلك، فسوف تحتاج إلى قيمها العليا للمساعدة في تقديم المشورة للبشرية بشأنها.