صعوبة تمييز تقنية الذكاء الاصطناعى Deepfake عن الحقيقة.. دراسة

صعوبة تمييز تقنية الذكاء الاصطناعى Deepfake عن الحقيقة.. دراسة
صعوبة تمييز تقنية الذكاء الاصطناعى Deepfake عن الحقيقة.. دراسة

صعوبة تمييز تقنية الذكاء الاصطناعى Deepfake عن الحقيقة هو أمر بالغ الخطورة كشفت عنه دراسة نشرتها صحيفة “ديلى ميل” البريطانية.

تقنية الذكاء الاصطناعى

قال باحثون أمنيون إن البشر إذ كانوا غير قادرين على اكتشاف أكثر من ربع عينات الكلام الناتجة عن الذكاء الاصطناعي.
فإنهم سيواجهون صعوبة أكبر في معرفة مقاطع التزييف العميق Deepfakes وهي مقاطع فيديو مزيفة أو مقاطع صوتية تهدف إلى تشابه صوت أو مظهر شخص حقيقي.
وبحسب ماذكرته صحيفة “ديلى ميل” البريطانية، فإن هناك مخاوف متزايدة من استخدام هذا النوع من التكنولوجيا من جانب المجرمين والمحتالين لخداع الناس وابتزازهم من أجل الحصول على المال.
صعوبة تمييز تقنية الذكاء الاصطناعى Deepfake عن الحقيقة.. دراسة
صعوبة تمييز تقنية الذكاء الاصطناعى Deepfake عن الحقيقة.. دراسة

صعوبة التفريق بين الكلام الحقيقي والمزيف العميق

في السياق ذاته اكتشف العلماء أنه لا يمكن للناس معرفة الفرق بين الكلام الحقيقي والمزيف العميق إلا بنسبة 73% من الوقت.
وقبل عد أشهر كان خطاب التزييف العميق المبكر قد يتطلب آلاف العينات من صوت الشخص لتتمكن من إنشاء صوت أصلي.
إلا أنه مع التطور يمكن لأحدث الخوارزميات إعادة إنشاء صوت الشخص باستخدام مقطع مدته ثلاث ثوانٍ فقط من حديثه.
واعتمد فريق من كلية لندن الجامعية على خوارزمية لتوليد 50 عينة من الكلام المزيف العميق وتشغيلها لـ 529 مشاركًا.
إذ كانوا قادرين فقط على تحديد الكلام المزيف في حوالي ثلاثة أرباع الوقت، والذي تحسن بشكل طفيف فقط بعد أن تلقوا تدريبًا للتعرف على جوانب الكلام المزيف.
من جانبه كشف كيمبرلي ماي، الباحث الأول للدراسة: “تؤكد نتائجنا أن البشر غير قادرين على اكتشاف الكلام المزيف بشكل موثوق.
تابع: ” العينات التي استخدمناها في هذه الدراسة تم إنشاؤها باستخدام خوارزميات قديمة نسبيًا”.
مما يثير التساؤل عما إذا كان البشر سيكونون أقل قدرة على اكتشاف الكلام المزيف العميق الذي تم إنشاؤه باستخدام أكثر التقنيات تطوراً المتاحة الآن وفي المستقبل”.
في سياق متصل قالت شركة كاسبرسكي إن مجرمو الإنترنت يستخدمون تقنيات فيديو الذكاء الاصطناعي بعدة طرق للأنشطة غير القانونية.
كما يعتمدون أيضاً على تقنية التزييف العميق لإنشاء مقاطع فيديو أو صور مزيفة يمكن استخدامها للاحتيال على الأفراد أو المؤسسات.

وعلى سبيل المثال، يمكنهم إنشاء مقطع فيديو مزيف لرئيس تنفيذي يطلب تحويلاً أو يعطي تصريحاً بالدفع من أجل استخدامه لسرقة أموال الشركة.

ويمكن استخدام مقاطع الفيديو المزيفة أيضاً لإنشاء مقاطع فيديو أو صور للأفراد تستخدم لابتزاز الأموال أو المعلومات منهم.

 ويستطيع المجرمون السيبرانيون أيضاً استخدام تقنية التزييف العميق لنشر معلومات كاذبة، أو التلاعب بالرأي العام.

ومن بين الأمثلة على ذلك إنشاء مقطع فيديو مزيف لشخصية سياسية يدلي بتصريحات مثيرة للجدل تُستغل للتأثير على نتيجة الانتخابات.