“التزييف العميق”.. تقنية آخر ضحاياها الرئيس الأوكراني معلنًا الاستسلام لروسيا

camera iconصورة من المقطع المصور المزيف للرئيس الأوكراني، فولوديمير زيلنسكي- 16 من آذار 2022 (BBC)

tag icon ع ع ع

انتشر مقطع مصوّر للرئيس الأوكراني، فولوديمير زيلينسكي، على منصات وسائل التواصل الاجتماعي، وهو يدعو الأوكرانيين للاستسلام وإلقاء أسلحتهم، فيما تبيّن سريعًا زيف المقطع، وإعلان حذفه من مسؤولي وسائل التواصل الاجتماعي.

أعلن رئيس قسم السياسة الأمنية في شركة “ميتا” (فيس بوك سابقًا)، ناثينال غليتشر، أن الشركة تعرّفت على المقطع المزيف وحذفته، عبر تغريدة له في 16 من آذار الحالي، كما أعلنت منصة “يوتيوب” لمقاطع الفيديو أيضًا عن إزالة المقطع لانتهاكه سياسات المعلومات المضللة.

واستُخدم في إنتاج هذا المقطع تقنية “التزييف العميق” (Deepfake)، التي تعمل على تزييف مقاطع الفيديو بصورة يصعب على البشر تمييزها والتفرقة بين ما هو حقيقي وما هو مزيف.

ما “التزييف العميق”؟

تعود تسمية الـ”Deepfake” إلى مصطلح “Artificial Intelligence Deep Learning Algorithm”، أي “خوارزميات التعلم العميق للذكاء الصناعي”، وتتميز هذه الخوارزميات بأنها قادرة على حل أصعب المشكلات عندما يتم تزويدها بقدر كبير من البيانات حول نفس المشكلة.

فيما توجد عدة طرق لإنشاء مقاطع الفيديو بهذه التقنية، تُعد الطريقة الأشهر، تزويد خوارزمية الذكاء الصناعي بآلاف الصور والمقاطع تحت ظروف إضاءة جيدة وتعابير وجه مختلفة للشخص المستهدف وللشخص المُزيف.

تقوم الخوارزمية بضغط البيانات من صور ومقاطع فيديو والتعرف على نقاط التشابه مثل العيون، والأنف، والفم، والأذنين، والحاجبين، ومقدمة الرأس والذقن، أما الاختلافات في اللون والحجم فستكون مهمة الذكاء الصناعي في التغلب عليها، ثم إنتاج نموذج لكل شخصية، وفي النهاية تقوم الخوارزمية بتبديل بيانات الشخص المستهدف بالشخص المُزيف.

استُخدمت تقنية “التزييف العميق” في إنشاء مقاطع فيديو إباحية مزيفة لعدد من المشاهير، واستُخدمت في نشر أخبار زائفة لسياسيين، كما توجد استخدامات مفيدة لهذه التقنية في مجال تدريب الموظفين والتفاعل والتواصل مع العملاء وكذلك في الإعلانات.

 

 

ما الحل؟

من المفارقة أن الذكاء الصناعي قد يكون الحل، فهو يعمل على اكتشاف مقاطع الفيديو المزيفة، واستثمرت شركتا “ميتا” و”مايكروسوفت” أكثر من عشرة مليارات دولار بصورة منفصلة من أجل تقديم برمجيات فعالة في الكشف عن هذا النوع من المقاطع.

وكانت “ميتا” أعلنت، في 16 من حزيران 2021 عبر موقعها الرسمي، عن عملها على مشروع لاستخدام الهندسة العكسية في اكتشاف مقاطع الفيديو المزيفة المعتمدة على تقنية “التزييف العميق”، من خلال معرفة إذا ما كانت الصور التي يتكوّن منها الفيديو حقيقية أم مزيفة، بعد تقطيع الفيديو إلى مجموعة من الصور وتحليل أوجه الأشخاص الموجودين فيها.

وتعتمد عملية التحليل على بصمات الصور الموجودة في كل الصور، مثل معلومات أدوات التصوير، التي يمكن استخدامها لمعرفة الكاميرا المستخدمة في التقاط صورة أو فيديو، ثم تحليل هذه البصمات ومطابقتها مع النماذج المعروفة المستخدمة في تقنية “التزييف العميق”.

وطوّرت شركة “مايكروسوفت” الأمريكية، أداة يمكنها عبر الاعتماد على الذكاء الصناعي التعرف على الصور ومقاطع الفيديو المزيفة عبر تقنية “التزييف العميق”، بحسب بيان نشرته في 1 من أيلول 2020.

كما أعلنت أيضًا أنها طوّرت تقنية لتأكد المستخدمين من أن المحتوى الذي يشاهدونه موثوق به، عبر إعطاء صناع المحتوى إمكانية إضافة بعض العلامات والشهادات التوثيقية التي يمكن ربطها بالمحتوى أينما كان على الإنترنت، على أن تتوفر أداة أخرى منفصلة لاحقًا كإضافة للمتصفحات من أجل التحقق من هذه العلامات والشهادات.

نجاح

شكرًا لك! تم إرسال توصيتك بنجاح.

خطأ

حدث خطأ أثناء تقديم توصيتك. يرجى المحاولة مرة أخرى.





×

الإعلام الموجّه يشوه الحقيقة في بلادنا ويطيل أمد الحرب..

سوريا بحاجة للصحافة الحرة.. ونحن بحاجتك لنبقى مستقلين

ادعم عنب بلدي

دولار واحد شهريًا يصنع الفرق

اضغط هنا للمساهمة