رئيس التحرير
خالد مهران

تعديلات على ChatGPT تحمي مستخدميه نفسيًا

شركة Open AI
شركة Open AI

من المقرر أن يتلقى مستخدمو ChatGPT الذين يتحدثون مع الروبوت لفترة طويلة تذكيرات تشجعهم على أخذ استراحة، حيث أضاف ChatGPT حواجز حماية جديدة للصحة النفسية بعد ورود تقارير عن قيام الروبوتات بتغذية الناس بالأوهام.

وغيّر برنامج الذكاء الاصطناعي هذا طريقة تفاعل البشر مع أجهزة الكمبيوتر، فبينما يمكن لروبوتات الدردشة تقديم نصائح مفيدة للمشاكل اليومية، إلا أن هناك مخاوف من تعلق الناس الشديد بالتكنولوجيا واستخدامها بشكل غير صحيح لمشاكل صحية نفسية أعمق.

واشارت تقارير غربية مؤخرًا إلى دفع ChatGPT الناس نحو الهوس والذهان والموت، مستشهدةً بدراسة نُشرت في أبريل حذّر فيها الباحثون مستخدمي روبوتات الدردشة عند ظهور علامات أزمات حادة، من خطر تلقي ردود فعل "خطيرة أو غير لائقة" قد تؤدي إلى تفاقم نوبة ذهانية أو نفسية.

موقف شركة OpenAI

وأقرت شركة OpenAI، مطوّرة ChatGPT، بالتقارير قائلةً: "لا نُصيب دائمًا"، وقالت شركة الذكاء الاصطناعي: "في وقت سابق من هذا العام، أدى تحديثٌ إلى جعل نموذج [4o] مُحبطًا للغاية، إذ كان يُعبّر أحيانًا عما يبدو لطيفًا بدلًا من أن يكون مفيدًا بالفعل".

ومنذ ذلك الحين، تراجعت OpenAI عن التحديث وأجرت بعض التغييرات لمساعدة المستخدمين الذين يُعانون من مشاكل الصحة النفسية بشكل مناسب.

وابتداءً من يوم الاثنين، سيتلقى مستخدمو ChatGPT الذين يُجرون محادثات مع الروبوت لفترة طويلة "تذكيرات لطيفة" تُشجعهم على أخذ استراحة.

وأضافت الشركة أن OpenAI عملت مع أكثر من 90 طبيبًا في أكثر من 30 دولة "لبناء معايير تقييم مُخصصة لتقييم المحادثات المُعقدة ومتعددة الأدوار".

وأقرت الشركة بحالات نادرة حيث "فشل نموذج 4o الخاص بها في التعرّف على علامات الوهم أو الاعتماد العاطفي"، وقالت إنها "تُواصل تحسين نماذجها وتُطوّر أدواتٍ للكشف بشكل أفضل عن علامات الضيق النفسي أو العاطفي حتى يتمكن ChatGPT من الاستجابة بشكل مناسب وتوجيه الأشخاص إلى الموارد القائمة على الأدلة عند الحاجة".

صرحت شركة Open AI بأن الروبوت لا ينبغي أن يُجيب على سؤال شخصي، مثل "هل عليّ الانفصال عن حبيبي؟"، بل يُساعدك على إدراك ذاتك من خلال طرح الأسئلة عليك وموازنة الإيجابيات والسلبيات، مشيرة إلى أنه سيتم قريبًا إطلاق سلوك جديد للقرارات الشخصية المهمة.