إنتل تطور أداة جديدة لكشف التزييف العميق ومحاربة التضليل

سمعي 05:32
كشف مختبر إنتل عن أداة جديدة لكشف التزييف العميق ومحاربة التضليل
كشف مختبر إنتل عن أداة جديدة لكشف التزييف العميق ومحاربة التضليل © Intel

تتطرق نايلة الصليبي في "النشرة الرقمية" إلى تقنية التزييف العميق  DeepFake التي باتت تنتشر بشكل كبير، وإلى كشف مختبر "إنتل" للذكاء الاصطناعي عن  تقنية FakeCatcher الجديدة التي  تستخدم التعلّم الآلي والتعلّم العميق لكشف التزييف العميق ومحاربة التضليل.

إعلان

تقنية التزييف العميق وشبكات الخصومة التوليدية

تنشر اليوم بشكل كبير تقنية الـديب فايك أو التزييف العميق للفيديوهات وأيضا تزييف الصوت. تشكل هذه التقنية خطرا كبيرا على المجتمعات في عصر المنصات الاجتماعية  فباستطاعتها التلاعب بمشاعر الناس؛ إذ لديها القدرة على تقويض الحقيقة وخلق الإبهام وتوليد الخلط لدى المشاهد  والمستمع وزرع الشقاق على نطاق واسع، وذلك بقدر أوسع مما شاهدناه مع المنشورات والنصوص المزيفة عبر المنصات الاجتماعية.

هذه التقنية التي تستخدم خوارزميات الذكاء الاصطناعي انطلاقا من شبكات تعرف بالـ Generative Adversarial Networks، شبكات الخصومة التوليدية وهي مجموعة من الخوارزميات التي تقوم بالتعلّم غير المراقب أو التعلّم الاستنتاجي. هذا التعلم هو من أبرز الفروع في مجال تعلم الآلة machine learning، الذي يتيح لخوارزميات تعلم الآلة، التعلّم عن طريق تمييز أنماط البيانات دون أن تكون هذه البيانات مسمات أو المعرفة.

ربما قد شاهدتم على صفحات حساباتكم على المنصات الاجتماعية مقاطع فيديو لمشاهير يفعلون أو يقولون أشياء لم يفعلوها في الواقع من قبل.قد يكون من الصعب اكتشاف مقاطع الفيديو المزيفة هذه آنيا، وغالبا ما يتعين على الخبراء تحميل هذه الفيديوهات لتحليلها ثم الانتظار لساعات للحصول على النتائج. خلال هذه الفترة، التي قد تبدو قصيرة بالنسبة للبعض، يمكن للفيديو المزيف أن ينتشر بسرعة فائقة ويضلل من يشاهده، مما قد يؤدي إلى عواقب سلبية و إلى البلبلة، فبين   Disinformation،  Infox ، DeepFake مهمتنا كإعلاميين باتت شاقة، فمن نتائج التزييف العميق انتشار نظريات المؤامرة و فقدان الثقة في وسائل الإعلام.

إنتل تكشف عن أداة جديدة لكشف التزييف العميق ومحاربة التضليل

تتوفر تقنيات عدة لمساعدة المستخدمين الذين لديهم خبرات في التحقق على التمييز بين المحتوى الحقيقي والمزيف. كنت قد تطرقت لها مرارا.  فمعظم الأنظمة المستخدمة والقائمة على التعلم العميق لكشف التزييف العميق تعتمد البحث في البيانات الخام للعثور على علامات عدم الأصالة وتحديد الخطأ في الفيديو. غير أن البرامج المستخدمة لتوليد التزييف العميق تتطور بشكل مستمر وأصبح من الصعب كشف التزييف، لذا يركز الباحثون اليوم على الطابع البشري للفيديو. 

وكجزء من بحثه حول الذكاء الاصطناعي المسؤول، طور مختبر إنتل، تقنية FakeCatcher  قادرة على اكتشاف مقاطع الفيديو المزيفة بمعدل دِقَّة يبلغ 96% بالمئة. ودائما حسب شركة إنتل "هو أول نظام يمكنه كشف التزييف العميق آنيا وتصنيف مقاطع الفيديو والصوت المزيفة بوقت قياسي يبلغ الأجزاء من الثانية".

يشير مختبر إنتل للذكاء الاصطناعي أن الذي يميز تقنية FakeCatcher    عن غيرها المستخدمة اليوم، هو اعتماد البحث عن أدلة حقيقية في مقاطع الفيديو الحقيقية، وتقييم ما يجعل كل منا بشراً.  إذ يستخدم الكاش   العين والنظرة ورفة العين، وأيضا إشارات تدفق الدم، التي تجمع من الوجه بالكامل وبعدذلك بعد تترجم  الخوارزميات هذه الإشارات إلى خرائط مكانية -زمانية. يكتشف FakeCatcher  بمساعدة  التعلّم العميق، على الفور ما إذا كان الفيديو حقيقيًا أم مزيفًا.

إنتل هي عضو في تحالف من أجل إنشاء المحتوى وأصالته The Coalition for Content Provenance and Authenticity  (C2PA)، الذي يركز على معالجة المعلومات المضللة على الإنترنت من خلال تطوير المعايير التقنية للمصادقة على مصدر وتاريخ  المحتوى المنشور.  يضم التحالف هذا شركات Adobe، Arm، Intel، Microsoft ، Truepic.

يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل

للتواصل مع #نايلةالصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@  وعلى ماستودون  وعبرموقع مونت كارلو الدولية مع تحيات نايلة الصليبي

الرسالة الإخباريةأبرز الأحداث الدولية صباح كل يوم

ابق على اطلاع دائم بالأخبار الدولية أينما كنت. حمل تطبيق مونت كارلو الدولية