< تطبيق ChatGPT يدافع عن نفسه بعد تهمة نشر الإباحية
النبأ
رئيس التحرير
خالد مهران

تطبيق ChatGPT يدافع عن نفسه بعد تهمة نشر الإباحية

صورة تعبيرية
صورة تعبيرية

دافعت شركة OpenAI المطوّر الرئيس لتطبيق ChatGPT عن نفسها من اتهامات نشر الإباحية بعد تصريحات بأنها طورت من نفسها، لكي تسمح للمحتوى الإباحي بالظهور من خلال المحادثات مع البشر، وذلك بحجة  أنها تعامل البشر كالبشر.

وقالت شركة OpenAI: لسنا شرطة الأخلاق المنتخبة في العالم، وردّ مطورو ChatGPT على الغضب الذي أثاره إعلانهم عن سماحهم للمستخدمين بإنشاء محتوى إباحي.

السماح بالإباحية

أعلنت OpenAI، يوم الثلاثاء الماضي، أنها سوف تسمح لـ ChatGPT بإنشاء محتوى إباحي للبالغين، وأعلنت أيضًا أنها ستخفف من الضمانات التي كانت تهدف إلى حماية الصحة النفسية لمستخدميها.

وأثار هذا غضبًا واسعًا، حيث أشار المستخدمون إلى أن تسهيل إنتاج محتوى إباحي باستخدام الذكاء الاصطناعي قد يُسبب ضررًا اجتماعيًا بالغًا بالنسبة للمراهقين والأطفال، بالإضافة إلى احتمال تعارضه مع ادعاءات الشركة بتحسين العالم وحل مشاكله، بل إنها بذلك تضيف مشكلة جديدة.

سام ألتمان يعالج المشكلة

حاول الرئيس التنفيذي سام ألتمان الآن معالجة هذا الغضب، مدعيًا أنه لم يتوقع أن يثير إعلان شركته عن بدء إنتاج محتوى إباحي باستخدام الذكاء الاصطناعي للمستخدمين هذا القدر الكبير من الاهتمام.

وقال إنه "لن يخفف أي سياسات تتعلق بالصحة النفسية"، وزعم أنه يواصل سعيه لإعطاء الأولوية للسلامة. وأضاف أن التغييرات تهدف إلى "إتاحة المزيد من حرية الاستخدام للبالغين".

وصرح سام ألتمان في منشور على منصة X، المعروفة سابقًا باسم تويتر: "مع تزايد أهمية الذكاء الاصطناعي في حياة الناس، فإن إتاحة قدر كبير من الحرية لهم لاستخدامه بالطرق التي يريدونها يُعد جزءًا مهمًا من مهمتنا". 

وأضاف: هذا لا ينطبق على الجميع بالطبع: على سبيل المثال، لن نسمح بالأشياء التي تُسبب الأذى للآخرين، وسنعامل المستخدمين الذين يعانون من أزمات نفسية بشكل مختلف تمامًا عن المستخدمين الذين لا يعانون منها.

وتابع سام ألتمان في المنشور ذاته: دون أن نكون أبويين، سنحاول مساعدة المستخدمين على تحقيق أهدافهم طويلة المدى.

ولكننا لسنا الشرطة الأخلاقية المنتخبة للعالم، وكما يُميز المجتمع بين الحدود المناسبة الأخرى (مثل الأفلام المصنفة للبالغين)، فإننا نريد أن نفعل شيئًا مشابهًا في تطبيق ChatGPT.