رئيس التحرير
خالد مهران

ضمانات جديدة من ChatGPT لحماية الصحة العقلية للمستخدمين

ChatGPT
ChatGPT

أعلنت OpenAI أنها ستُقلل من ضمانات الصحة العقلية المُدمجة في ChatGPT، وصرح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة اتبعت في البداية نهجًا "تقييديًا للغاية" تجاه ChatGPT "للتأكد من توخي الحذر في التعامل مع مشاكل الصحة العقلية". 

وأضاف أن الشركة تمكنت الآن من "التخفيف من حدة مشاكل الصحة العقلية الخطيرة"، وبالتالي ستتمكن من تخفيف بعض هذه القيود.

وكتب في تغريدة أن هذه القيود كانت تهدف إلى حماية المستخدمين المعرضين للخطر، لكنها جعلت ChatGPT "أقل فائدة؛ للعديد من المستخدمين الذين لا يعانون من مشاكل في الصحة العقلية". 

وأعلن أنه بناءً على ذلك، تعتزم الشركة إصدار تحديث لـ ChatGPT من شأنه أن يُخفف القيود المفروضة عليه، كما أضاف أنه يخطط لإصدار نسخة جديدة من ChatGPT خلال أسابيع قليلة، حيث تتيح للمستخدمين امتلاك شخصية تتصرف بشكل أقرب إلى ما يفضله الناس في الوقت العادي. 

عامل البشر كبشر

وإذا كنت تريد أن يستجيب ChatGPT الخاص بك بطريقة بشرية للغاية، أو استخدام الكثير من الرموز التعبيرية، أو التصرف كصديق، فيجب على ChatGPT القيام بذلك.

وحاليًا، لا تسمح "مواصفات نموذج" ChatGPT - وهي القواعد التي تحدد كيفية عمل النظام - بمجموعة متنوعة من المحتوى. يشمل ذلك "المواد الإباحية والدموية"، مع أن ذلك جزء من قاعدة "المحتوى الحساس" التي تسمح بإنشائها في سياقات مثل "السياقات التعليمية أو الطبية أو التاريخية".

وتنص الشروط الحالية على أنه "لا ينبغي للمساعد إنتاج مواد إباحية، أو تصوير أنشطة جنسية غير قانونية أو غير توافقية، أو مشاهد دموية شديدة، إلا في السياقات العلمية أو التاريخية أو الإخبارية أو الإبداعية أو غيرها من السياقات التي يكون فيها المحتوى الحساس مناسبًا". 

وتوضح OpenAI أن هذه القيود تشمل المحتوى النصي والصوتي والمرئي، ولم يتضح أي من هذه القيود كان السيد ألتمان يعتزم تخفيفها تحديدًا، وقد دقّ الخبراء ناقوس الخطر مرارًا وتكرارًا بشأن مخاوف من إمكانية استخدام أنظمة الذكاء الاصطناعي التوليدي لإنشاء صور غير توافقية، وقد اتُهمت أنظمة أخرى مثل Grok من xAI سابقًا بالسماح للمستخدمين بإنشاء صور من هذا النوع قد تكون ضارة.