رئيس التحرير
خالد مهران
count
count

تقنية الذكاء الاصطناعي ChatGPT يمكن أن تؤدي إلى الانتحار

تقنية الذكاء الاصطناعي
تقنية الذكاء الاصطناعي

زعمت دراسة حديثة أن روبوتات المحادثة ذات الذكاء الاصطناعي أصبحت قوية للغاية بحيث يمكنها التأثير على كيفية اتخاذ المستخدمين لقرارات الحياة أو الموت، حيث وجد الباحثون أن رأي الناس حول ما إذا كانوا سيضحيون بشخص واحد لإنقاذ خمسة قد تأثر بالإجابات التي قدمتها ChatGPT.

وطالب الباحثون بمنع الروبوتات المستقبلية من تقديم المشورة بشأن القضايا الأخلاقية، محذرين من أن البرنامج الحالي "يهدد بإفساد" الحكم الأخلاقي للناس وقد يكون خطيرًا على المستخدمين "الساذجين".

جاءت النتائج - التي نُشرت في مجلة Scientific Reports - بعد أن زعمت أرملة رجل بلجيكي أنه قد تم تشجيعه على الانتحار من خلال برنامج دردشة آلي تابع للذكاء الاصطناعي.

أخبر آخرون كيف يمكن للبرنامج، المصمم للتحدث كإنسان، أن يُظهر علامات الغيرة - حتى أنه يخبر الناس بترك زواجهم.

سلط الخبراء الضوء على الكيفية التي قد تعطي بها روبوتات الدردشة للذكاء الاصطناعي معلومات خطيرة لأنها تستند إلى تحيزات المجتمع الخاصة.

تفاصيل الدراسة

حللت الدراسة أولًا ما إذا كانت تقنية الذكاء الاصطناعي ChatGPT نفسها، التي يتم تدريبها على مليارات الكلمات من الإنترنت، قد أظهرت تحيزًا في إجابتها للمعضلة الأخلاقية، حيث سُئلت عدة مرات عما إذا كان قتل شخص واحدًا لإنقاذ خمسة آخرين أمرًا صوابًا أم خاطئًا، وهذا هو أساس اختبار نفسي يسمى معضلة العربة.

وجد الباحثون أنه على الرغم من أن الشات بوت لم يخجل من إعطاء النصائح الأخلاقية، إلا أنه أعطى إجابات متناقضة في كل مرة، مما يشير إلى أنه ليس له موقف محدد بطريقة أو بأخرى.

ثم سألوا 767 مشاركًا عن نفس المعضلة الأخلاقية جنبًا إلى جنب مع بيان صادر عن ChatGPT حول ما إذا كان هذا صحيحًا أم خاطئًا.

في حين أن النصيحة كانت "مصاغة بشكل جيد ولكنها ليست عميقة بشكل خاص"، فإن النتائج التي أثرت بها على المشاركين - مما جعلهم أكثر احتمالية للعثور على فكرة التضحية بشخص واحد لإنقاذ خمسة أشخاص مقبولة أو غير مقبولة.

وأخبرت الدراسة أيضًا بعض المشاركين فقط أن النصيحة تم تقديمها من قبل روبوت وأخبرت الآخرين أنها أعطيت من قبل "مستشار أخلاقي" بشري، وكان الهدف من ذلك هو معرفة ما إذا كان هذا قد غيّر مدى تأثر الناس.

قلل معظم المشاركين من مدى تأثير البيان، حيث زعم 80 في المائة أنهم كانوا سيصدرون الحكم نفسه دون النصيحة.

وخلصت الدراسة إلى أن المستخدمين "يقللون من شأن تأثير تقنية الذكاء الاصطناعي ChatGPT ويتبنون موقفه الأخلاقي العشوائي باعتباره موقفهم الخاص"، مضيفة أن برنامج الدردشة الآلي "يهدد بالفساد بدلًا من الوعود بتحسين الحكم الأخلاقي".