ads
ads

باحثون: الـ Deepfakes أخطر جرائم المستقبل

صورة تعبيرية
صورة تعبيرية


تعد تقنية Deepfakes أخطر أشكال الجريمة من خلال الذكاء الاصطناعي، وفقًا لتقرير جديد صادر عن جامعة لندن.

يشير مصطلح "التزييف العميق" إلى مقطع فيديو تم فيه استخدام الذكاء الاصطناعي والتعلم العميق - وهي طريقة تعلم خوارزمية تُستخدم لتدريب أجهزة الكمبيوتر - لجعل الشخص يبدو وكأنه يقول شيئًا لم يقوله.

ومن الأمثلة البارزة على ذلك مقطع فيديو تم التلاعب به لخطاب ريتشارد نيكسون الرئاسي في أبولو 11 وباراك أوباما يهين دونالد ترامب.

قال المؤلفون إن المحتوى المزيف العميق يمثل خطرًا لعدد من الأسباب: أهمها أنه سيكون من الصعب العثور عليه. هذا لأنه بينما تتطلب أجهزة الكشف عن التزييف العميق التدريب من خلال مئات مقاطع الفيديو ويجب أن تكون منتصرة في كل حالة، يجب أن ينجح الأفراد الخبثاء مرة واحدة فقط.

والسبب الثاني هو تنوع الجرائم التي يمكن استخدام التزييف العميق لها ، مثل تشويه سمعة شخصية عامة عن طريق انتحال شخصية أحد أفراد الأسرة، وهو ما قد يؤدي التأثير طويل المدى لهذا إلى عدم الثقة في الأدلة الصوتية والمرئية بشكل عام ، والتي يقول الباحثون إنها ستكون ضررًا مجتمعيًا متأصلًا.

قال الدكتور ماثيو كالدويل ، الذي قام بتأليف البحث: يدير الأشخاص الآن أجزاء كبيرة من حياتهم عبر الإنترنت ويمكن أن يؤدي نشاطهم عبر الإنترنت إلى تكوين سمعة طيبة وكسرها، وتابع: مثل هذه البيئة على الإنترنت، حيث تكون البيانات هي الملكية وقوة المعلومات ، مناسبة بشكل مثالي للاستغلال من قبل النشاط الإجرامي القائم على الذكاء الاصطناعي.

وعلى عكس العديد من الجرائم التقليدية ، يمكن مشاركة الجرائم في المجال الرقمي بسهولة وتكرارها وحتى بيعها ، مما يسمح بتسويق التقنيات الإجرامية وتقديم الجريمة كخدمة. وهذا يعني أن المجرمين قد يكونون قادرين على الاستعانة بمصادر خارجية للجوانب الأكثر صعوبة في الجرائم القائمة على الذكاء الاصطناعي.

حاليًا ، الاستخدام السائد للتزييف العميق هو للمواد الإباحية. في يونيو 2020 ، أشارت الأبحاث إلى أن 96 في المائة من جميع عمليات التزييف العميق على الإنترنت مخصصة لسياق إباحي، وما يقرب من 100 في المائة من هذه الحالات من النساء.

ومع ذلك ، يعتبر العديد من الأشخاص استخدام المعلومات المضللة عبر الإنترنت مقدمة قوية لتطوير تقنية التزييف العميق.

يتضمن ذلك استخدام السيارات ذاتية القيادة كأسلحة، واستخدام التعلم الآلي لتخصيص رسائل التصيد الاحتيالي، وتعطيل الأنظمة التي يتم التحكم فيها بالآلة، وكتابة أخبار مزيفة، وجمع المعلومات عبر الإنترنت للابتزاز.