رئيس التحرير
خالد مهران

جوجل تدخل بعد أخطاء فادحة من الذكاء الاصطناعي

جوجل
جوجل

أزالت جوجل العديد من ملخصات المعلومات الصحية المدعومة بتقنية الذكاء الاصطناعي بعد تحذيرات الخبراء من أن النتائج "المضللة" تُعرّض المستخدمين للخطر.

في وقت سابق من هذا الشهر، رصدت العديد من الصحف مشاكل في العديد من ملخصات المعلومات الصحية التي تستخدم الذكاء الاصطناعي، والتي تعتمد على الذكاء الاصطناعي التوليدي لتلخيص المعلومات الرئيسية في أعلى نتائج البحث.

في أحد الأمثلة، ذكرت الصحيفة أنه عند طرح سؤال "ما هو المعدل الطبيعي لنتائج تحاليل وظائف الكبد؟"، لم يأخذ الذكاء الاصطناعي في الحسبان السياق الكافي، ولا جنسية المريض أو جنسه أو عرقه أو عمره عند الإجابة.

وحذر الخبراء من أن هذا قد يدفع المرضى الذين يعانون من حالات صحية خطيرة إلى الاعتقاد خطأً بأن نتائجهم طبيعية، وبالتالي عدم حضورهم مواعيد المتابعة.

والآن، أزالت جوجل ملخصات المعلومات الصحية المدعومة بالذكاء الاصطناعي لهذا السؤال، وكذلك عمليات البحث عن "ما هو المعدل الطبيعي لنتائج تحاليل وظائف الكبد؟"، وفقًا لما ذكرته الصحيفة. 

وأكدت الشركة، التي تستحوذ على أكثر من 90% من سوق محركات البحث العالمية، أن نتائج الذكاء الاصطناعي تُحدّث تلقائيًا عند وجود نقص في السياق.

تعليق لشركة جوجل

وتعليقًا على ما حدث صرح متحدث رسمي لشركة جوجل: "لا نعلق على عمليات الإزالة الفردية من نتائج البحث، ففي الحالات التي تفتقر فيها ملخصات الذكاء الاصطناعي إلى بعض السياق، نعمل على إجراء تحسينات شاملة، ونتخذ الإجراءات اللازمة وفقًا لسياساتنا عند الاقتضاء."

وأضاف: "راجع فريقنا الداخلي من الأطباء ما تم مشاركته معنا، ووجد أن المعلومات في كثير من الأحيان لم تكن غير دقيقة، بل كانت مدعومة بمواقع إلكترونية عالية الجودة."

لكن الخبراء من جانبهم حذروا من استمرار وجود مخاطر استخدام الذكاء الاصطناعي لمثل هذه المعلومات المهمة، فإزالة هذه الملخصات، لا يمنع أنه إذا طُرح السؤال بطريقة مختلفة، فقد يتم تقديم ملخصات ذكاء اصطناعي مضللة، ولا نزال قلقين من أن تكون المعلومات الصحية الأخرى التي ينتجها الذكاء الاصطناعي غير دقيقة ومربكة.

لا تزال خدمة مراجعات الذكاء الاصطناعي تُعرض بعد إدخال نسخ معدلة قليلًا من الاستعلامات الأصلية، مثل "نطاق مرجعي لـ LFT" أو "نطاق مرجعي لاختبار LFT". وقد صرحت جوجل بأنها تُراجع هذه الأمثلة الجديدة.