تحذيرات حقوقية من ألعاب الأطفال الإلكترونية التي تعتمد على الذكاء الاصطناعي

أعلنت شركة ماتيل، عملاقة ألعاب الأطفال الإلكترونية، عن تعاونها مع OpenAI الأسبوع الماضي، مُلمّحةً إلى أن الألعاب المستقبلية ستُدمج روبوت الدردشة الشهير المُعتمد على الذكاء الاصطناعي.
لم يتضمن الإعلان تفاصيل مُحددة حول كيفية استخدام هذه التقنية، لكن ماتيل قالت إن الشراكة ستدعم المنتجات والتجارب المُدعمة بالذكاء الاصطناعي وستُضفي سحر الذكاء الاصطناعي على تجارب اللعب المُناسبة لأعمار الأطفال.
ردًا على ذلك، دعا مُدافعون عن حقوق الطفل، عملاقة ألعاب الأطفال الإلكترونية، إلى عدم استخدام هذه التقنية التجريبية في ألعاب الأطفال.
خطورة على الأطفال
وقال روبرت فايسمان، الرئيس المُشارك لمجموعة "بابليك سيتيزن" المُدافعة عن حقوق الطفل، في بيان: "الأطفال لا يمتلكون القدرة المعرفية الكافية للتمييز بين الواقع واللعب".
وأضاف: "إن تزويد الألعاب بأصوات تُشبه أصوات البشر، وتُمكّنها من إجراء مُحادثات تُشبه أصوات البشر، يُهدد بإلحاق ضرر حقيقي بالأطفال".
ومن بين الأضرار المحتملة؛ تقويض التطور الاجتماعي للأطفال والتدخل في قدرتهم على بناء علاقات مع أقرانهم.
وينبغي لشركة ماتيل أن تعلن فورًا أنها لن تُدمج تقنية الذكاء الاصطناعي في ألعاب الأطفال الإلكترونية، ولا ينبغي للشركة أن تستغل ثقتها بالآباء لإجراء تجربة اجتماعية متهورة على أطفالنا من خلال بيع ألعاب تتضمن الذكاء الاصطناعي.
ويأتي تعاون Mattel وOpenAI وسط مخاوف متزايدة بشأن تأثير أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT على الصحة النفسية للمستخدمين.
من المعروف أن روبوتات الدردشة تنشر معلومات مضللة، وتؤكد نظريات المؤامرة، بل وتُزعم أنها تُشجع المستخدمين على الانتحار.
كما حذّر الأطباء النفسيون من ظاهرة تُسمى ذهان روبوتات الدردشة، والتي تحدث نتيجة التفاعل مع الذكاء الاصطناعي.
تأثير نفسي خطير
والمراسلات مع روبوتات الدردشة المُولِّدة للذكاء الاصطناعي، مثل ChatGPT، واقعية للغاية لدرجة أن المرء يكوّن انطباعًا بوجود شخص حقيقي في الطرف الآخر، ومن المرجح أن هذا التنافر المعرفي قد يُغذّي الأوهام لدى الأشخاص الذين لديهم ميل متزايد نحو الذهان.
ومن جانبه صرح سام ألتمان، رئيس شركة OpenAI، هذا الأسبوع بأن شركته تبذل جهودًا لتطبيق تدابير سلامة لحماية المستخدمين المُعرَّضين للخطر، مثل قطع المحادثات التي تتضمن نظريات المؤامرة، أو توجيه الأشخاص إلى الخدمات المهنية في حال ظهور مواضيع مثل الانتحار.