رئيس التحرير
خالد مهران

علماء يتحدثون عن انهيار الذكاء الاصطناعي وطريقة واحدة لإيقافه

ChatGPT
ChatGPT

وجد العلماء طريقة للتغلب على "انهيار النموذج"، وهي ظاهرة تُهدد تدريب الذكاء الاصطناعي كما نعرفه، لتحقيق أداء أفضل، يجب تدريب أنظمة الذكاء الاصطناعي، مثل تلك المستخدمة في ChatGPT، باستخدام المزيد من البيانات الحقيقية، ولكن الكثير من هذه البيانات مُستمد من الكتابة على الإنترنت، والتي غالبًا ما تُنتج باستخدام هذه النماذج.

تتناقص كمية البيانات الحقيقية بسرعة، ومن المتوقع أن تنفد في وقت مبكر من هذا العام، وقد تُؤدي البيانات التي تُنتجها أنظمة الذكاء الاصطناعي الأخرى إلى "انهيار النموذج" بسرعة.

يشير هذا إلى ظاهرة "التهام البيانات" التي تُمارسها أنظمة الذكاء الاصطناعي، حيث يتم تدريبها على مُخرجاتها الخاصة، فتُصبح أقل فائدة وأكثر عُرضة للتضليل الخطير.

لكن الباحثين اقترحوا أن استخدام نقطة بيانات واحدة فقط من العالم الخارجي يُمكن أن يمنع هذه المشكلة، حيث استخدم الباحثون في ذلك مجموعة من النماذج تُسمى "العائلات الأسية"، وهي مجموعة من النماذج الإحصائية.

أظهرت الدراسة أن تدريب الأنظمة على البيانات التي أنتجتها بنفسها فقط سيؤدي حتمًا إلى انهيار النموذج. لكن دمج نقطة بيانات واحدة من خارج النموذج - كالمعرفة المكتسبة سابقًا - يمنع هذا الانهيار، وأوضحت الدراسة أن هذا يحدث حتى عندما تكون كمية البيانات المُولّدة آليًا هائلة جدًا.

وجد العلماء طريقة للتغلب على "انهيار النموذج"، وهي ظاهرة تُهدد تدريب الذكاء الاصطناعي كما نعرفه.

لتحقيق أداء أفضل، يجب تدريب أنظمة الذكاء الاصطناعي، مثل تلك المستخدمة في ChatGPT، باستخدام المزيد من البيانات الحقيقية، ولكن الكثير من هذه البيانات مُستمد من الكتابة على الإنترنت، والتي غالبًا ما تُنتج باستخدام هذه النماذج.

تتناقص كمية البيانات الحقيقية بسرعة، ومن المتوقع أن تنفد في وقت مبكر من هذا العام، وقد تُؤدي البيانات التي تُنتجها أنظمة الذكاء الاصطناعي الأخرى إلى "انهيار النموذج" بسرعة.

يشير هذا إلى ظاهرة "التهام البيانات" التي تُمارسها أنظمة الذكاء الاصطناعي، حيث يتم تدريبها على مُخرجاتها الخاصة، فتُصبح أقل فائدة وأكثر عُرضة للتضليل الخطير.

لكن الباحثين اقترحوا أن استخدام نقطة بيانات واحدة فقط من العالم الخارجي يُمكن أن يمنع هذه المشكلة، حيث استخدم الباحثون في ذلك مجموعة من النماذج تُسمى "العائلات الأسية"، وهي مجموعة من النماذج الإحصائية.

أظهرت الدراسة أن تدريب الأنظمة على البيانات التي أنتجتها بنفسها فقط سيؤدي حتمًا إلى انهيار النموذج. لكن دمج نقطة بيانات واحدة من خارج النموذج - كالمعرفة المكتسبة سابقًا - يمنع هذا الانهيار، وأوضحت الدراسة أن هذا يحدث حتى عندما تكون كمية البيانات المُولّدة آليًا هائلة جدًا.

انهيار نماذج الذكاء الاصطناعي

ركزت الدراسات السابقة حول انهيار النماذج بشكل أساسي على نماذج خطية لوجستية كبيرة ومعقدة، حيث لا يتضح كيفية عمل هذه النماذج وما إذا كانت النتائج قابلة للتكرار - وهذا ما يفسر ظهور نتائج غير منطقية، حيث لا يمكن تفسير سبب توليد الذكاء الاصطناعي لإجابة خاطئة".

من خلال التركيز على نموذج بسيط، يمكننا تحديد السبب وراء منع إضافة نقطة بيانات واحدة فقط هذه النماذج من توليد كلام غير مفهوم، وذلك من منظور إحصائي موضوعي.

وأشار الباحثون القائمون على الدراسة إلى أن هذا الانهيار لا يقتصر على برامج الدردشة الآلية، بل قد يؤثر على بنى تحتية حيوية مثل السيارات أيضًا.

وانطلاقًا من هذا الأساس، يمكننا وضع مبادئ ستكون حيوية في تطوير الذكاء الاصطناعي مستقبلًا. ومع انتشار النماذج الأكبر حجمًا في مجالات تمس حياتنا، بدءًا من ChatGPTوصولًا إلى السيارات ذاتية القيادة، ومع ازدياد اعتماد تدريب الذكاء الاصطناعي على البيانات الاصطناعية، سيمتلك علماء الحاسوب الأدوات اللازمة لمنع هذا السيناريو الكارثي المحتمل.

ركزت الدراسات السابقة حول انهيار النماذج بشكل أساسي على نماذج خطية لوجستية كبيرة ومعقدة، حيث لا يتضح كيفية عمل هذه النماذج وما إذا كانت النتائج قابلة للتكرار - وهذا ما يفسر ظهور نتائج غير منطقية، حيث لا يمكن تفسير سبب توليد الذكاء الاصطناعي لإجابة خاطئة".

من خلال التركيز على نموذج بسيط، يمكننا تحديد السبب وراء منع إضافة نقطة بيانات واحدة فقط هذه النماذج من توليد كلام غير مفهوم، وذلك من منظور إحصائي موضوعي.

وأشار الباحثون القائمون على الدراسة إلى أن هذا الانهيار لا يقتصر على برامج الدردشة الآلية، بل قد يؤثر على بنى تحتية حيوية مثل السيارات أيضًا.

وانطلاقًا من هذا الأساس، يمكننا وضع مبادئ ستكون حيوية في تطوير الذكاء الاصطناعي مستقبلًا. ومع انتشار النماذج الأكبر حجمًا في مجالات تمس حياتنا، بدءًا من ChatGPTوصولًا إلى السيارات ذاتية القيادة، ومع ازدياد اعتماد تدريب الذكاء الاصطناعي على البيانات الاصطناعية، سيمتلك علماء الحاسوب الأدوات اللازمة لمنع هذا السيناريو الكارثي المحتمل.