علوم وتكنولوجيا

هل ينجح برنامج رائد لـ"إنتل" في مواجهة تقنيات التزييف العميق؟

تزعم الشركة أن نظام كشف التزييف "FakeCatcher" دقيق بنسبة 96 في المئة- انتل
تزعم الشركة أن نظام كشف التزييف "FakeCatcher" دقيق بنسبة 96 في المئة- انتل
نظرا لأن تطورات الذكاء الاصطناعي تجعل من إنتاج فيديوهات التزييف العميق أمرا سهلا وميسورا، فقد بات اكتشافها بشكل سريع أمرا أكثر أهمية وإلحاحا.

تعتقد شركة "إنتل" للتكنولوجيا أن لديها الحل، وترى أن الأمر برمته يتعلق بالدماء التي تسري في وجهك، فما الذي يعنيه ذلك؟ وفق تقرير لـ"بي بي سي".

أطلقت الشركة على النظام الذي يكشف التزييف العميق اسم "FakeCatcher".

تقول عالمة الأبحاث في مختبرات "إنتل" إيلك ديمير إن التقنية المسماة فوتوبليثيسموغرافي Photoplethysmography (PPG)، والتي تكتشف التغيُّرات في تدفق الدم في الجسم، مركزية في هذا النظام.

تشرح ذلك قائلة إن "الوجوه التي تنتَج عبر استخدام تقنية التزييف العميق لا تعطي هذه الإشارات".

كما يقوم النظام أيضا بتحليل حركة العين للتأكد من أنها حقيقية.

تقول: "عادة عندما ينظر البشر إلى نقطة ما، عندما أنظر إليك على سبيل المثال، يبدو الأمر كما لو أنني أطلق أشعة من عيني نحوك... لكن بالنسبة إلى تقنية التزييف العميق تبدو العيون محدقة بطريقة فارغة وسخيفة، أي تكون نظرتها زائغة ويعوزها التركيز".

اظهار أخبار متعلقة


من خلال النظر في هاتين السمتين، تعتقد "إنتل" أنها تستطيع إيجاد الفرق بين الفيديو الحقيقي والمزيف في غضون ثوان قليلة.

وتزعم الشركة أن نظام كشف التزييف "FakeCatcher" دقيق بنسبة 96 في المئة.

حاولت "بي بي سي" تجربة التقنية، واستخدمت عشرات مقاطع الفيديو للرئيس الأمريكي السابق دونالد ترامب والرئيس جو بايدن.

كان بعض تلك المقاطع حقيقيا، وبعضها الآخر كان منتجَا باستخدام تقنية التزييف العميق، من قبل معهد ماساشوستس للتكنولوجيا في الولايات المتحدة.

تقول "بي بي سي" إنه فيما يتعلق بالتعرف على مقاطع الفيديو المنطوية على التزييف العميق، بدا أن النظام يعمل بشكل فعال جدا.

تم اختيار مقاطع فيديو حقيقية عُدل فيها تناغم الصوت مع الصورة، أي تم فيها تغيير الفم والصوت.

وقد نجح نظام "FakeCatcher" في الكشف عنها كلها، باستثناء مقطع واحد.

محاذير
ولكن على الرغم من نجاح البرنامج لدرجة كبيرة في حالة الفيديوهات المزيفة، إلا أنه عندما تم تجربة فحص مقاطع فيديو حقيقية وأصلية، بدأ النظام بمواجهة المشاكل والصعوبات، وفي عدة مرات خلص النظام إلى إن الفيديو كان مزيفا، في حين أنه كان حقيقيا، بحسب تقرير "بي بي سي".

مرد ذلك بصورة أو بأخرى، إلى أنه كلما كان مقطع الفيديو أقل وضوحا (أي يمكن رؤية الوحدات المتناهية في الصغر المكونة للصورة بوضوح)، يصعب الكشف عن تغيرات تدفق الدم.

كما وجد أن نظام "FakeCatcher" غير قادر على تحليل الصوت، لذلك صُنفت بعض مقاطع الفيديو التي بدت حقيقية إلى حد ما من خلال الاستماع إلى الصوت، على أنها مزيفة.

والمثير للقلق هو أنه إذا ما صنف البرنامج مقطع فيديو ما على أنه مزيف، فقد يتسبب في مشاكل حقيقية عندما يكون المقطع في واقع الأمر أصليا.

يعلق مات غرو أستاذ مساعد في جامعة نورث وسترن في إلينوي، وخبير في تقنية التزييف العميق، على تقنية "إنتل" بالقول: "لا أشك في الإحصائيات التي أدرجوها في تقييمهم الأولي... ولكن ما أشك فيه هو ما إذا كانت تلك الإحصائيات ذات صلة بسياقات العالم الحقيقي".

ويضيف: "غالبا ما تقدم برامج، مثل أنظمة التعرف على الوجه، إحصائيات سخية للغاية حول دقتها. لكن على الرغم من ذلك، عند اختبارها فعليا وعمليا في العالم الحقيقي، يمكن أن تبدو أقل دقة".

تزعم شركة "إنتل" أن برنامج "FakeCatcher" قد خضع لاختبارات صارمة، من ضمنها اختبار "موسع" - حيث جمعت الشركة 140 مقطع فيديو مزيفا - إلى جانب نفس العدد من مقاطع الفيديو الأصلية.

وتقول الشركة إنه في هذا الاختبار، حقق النظام نسبة نجاح بلغت 91 في المئة.

اظهار أخبار متعلقة


لكن على الرغم من ذلك يطالب مات غرو وباحثون آخرون تحليل باختبار البرنامج من قبل جهة مستقلة، إذ إنهم يعتقدون أن إجراء شركة "إنتل" اختبارا لمنتَجها بنفسها، ليس كافيا.

يعتقد غرو أن إجراء تلك الاختبارات المستقلة مهم حقا "عندما نكون بصدد تصميم عمليات تدقيق ومحاولة فهم مدى دقة شيء ما في سياق العالم الحقيقي".

تختتم "بي بي سي" تقريرها بالقول إنه "من المثير للدهشة مدى صعوبة التمييز بين مقطع فيديو مزيف وآخر حقيقي - وهذه التكنولوجيا لديها بالتأكيد إمكانيات واعدة في هذا المجال"، "ولكن من خلال اختباراتنا المحدودة، يبدو حتى الآن على الأقل، أن الطريق أمامها ما زال طويلا".
التعليقات (0)
الأكثر قراءة اليوم