الذكاء الاصطناعي.. تكتيكات الحرب والتضليل بين إسرائيل و”حماس”
اتسمت تغطية أخبار التصعيد الإسرائيلي على قطاع غزة وهجوم “كتائب القسام”، الذراع العسكرية لـ”حركة المقاومة الإسلامية” (حماس)، في 7 من تشرين الأول الماضي، بموجة من المعلومات المضللة والدعاية على منصات وسائل التواصل الاجتماعي، استخدم فيها كلا الجانبين تكتيكات مختلفة للتأثير على الرأي العام وتشكيل رواية الحرب.
ولعب الذكاء الاصطناعي التوليدي دورًا بارزًا في إنشاء صور ومقاطع مصورة مزيفة، مصممة لخداع المشاهدين والتلاعب بآرائهم.
الذكاء الاصطناعي التوليدي هو فرع من الذكاء الاصطناعي، يمكنه إنتاج محتوى واقعي من الصفر، مثل الوجوه والأصوات والنصوص والمشاهد، ويستخدم “شبكات عصبية عميقة” للتعلم من مجموعات البيانات الكبيرة، وإنشاء عينات جديدة تشبه البيانات الأصلية.
من أهم “الشبكات العصبية” التي يستخدمها الذكاء الاصطناعي التوليدي شبكات “GAN” (generative adversarial networks)، التي تتكون من شبكتين متنافستين، تدعى الأولى “المولد” الذي ينشئ محتوى مزيفًا، و”المُميِّز” الذي يحاول التمييز بين المحتوى الحقيقي والمزيف، ومن خلال تدريب الذكاء الاصطناعي على شبكة “المولد” لخداع شبكة “المُميِّز”، يستطيع نموذج الذكاء الاصطناعي إنتاج محتوى عالي الجودة ومزيف بجودة عالية.
من تطبيقات الذكاء الاصطناعي التوليدي، إنشاء صور مزيفة، أو ما يدعى بـ”التزييف العميق” (Deepfake)، وهي تطبيقات تبدل وجوه أو أصوات الأشخاص الحقيقيين أو تتلاعب بها، وبالإضافة إلى أغراضها المفيدة مثل البحث العلمي أو التعليم، يمكن استخدامها أيضًا لأغراض ضارة، مثل نشر معلومات مضللة أو انتحال شخصية المشاهير أو ابتزاز الأفراد.
في سياق الأحداث بين إسرائيل و”حماس”، استُخدمت تقنية “التزييف العميق” لإنشاء مقاطع مصورة مزيفة تظهر قادة إسرائيليين أو فلسطينيين يقولون أو يفعلون أشياء لم تحدث أبدًا، أو لتغيير مشاهد العنف أو الدمار لجعلها تبدو أكثر أو أقل خطورة.
ومن هذه الأمثلة، أظهرت صورة مزيفة تابعة لحساب إسرائيلي أشخاصًا يهتفون للجيش الإسرائيلي، واستخدم مؤثر إسرائيلي صور الذكاء الاصطناعي المزيفة لإدانة “حماس”، وصور الذكاء الاصطناعي المزيفة التي تصور ضحايا القصف الإسرائيلي لغزة.
يشكل استخدام الذكاء الاصطناعي لإنشاء محتوى مزيف تهديدًا خطيرًا لسلامة ومصداقية المعلومات في العصر الرقمي، ويمكن أن يقوّض ثقة الجمهور في المصادر والأدلة التي يعتمد عليها في تكوين آرائه وقراراته، كما يمكن أن يؤدي إلى تفاقم الاستقطاب والعداء بين المجموعات والمجتمعات المختلفة، ويؤجج تصاعد الصراعات والعنف.
ما الحل؟
يجب تطوير ونشر نماذج ذكاء اصطناعي أكثر تقدمًا، بحيث يمكنها تحديد المحتوى المزيف والإبلاغ عنه، مثل استخدام البحث العكسي عن الصور، أو تحليل البيانات التعريفية، أو العلامات المائية الرقمية.
ومن الضروري تثقيف الجمهور وتوعيته حول وجود المحتوى المزيف ومخاطره، وتشجيعه على التحقق من صحة المعلومات التي يستهلكها ويشاركها عبر الإنترنت.
ومن المهم إنشاء وإنفاذ معايير ولوائح واضحة ومتسقة للاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي التوليدي، ومحاسبة منشئي وموزعي المحتوى المزيف على أفعالهم.
ويعتبر تعزيز ودعم عمل الصحفيين ومدققي الحقائق المستقلين والموثوقين، الذين يمكنهم كشف المحتوى المزيف وفضحه، وتوفير معلومات دقيقة وموثوقة للجمهور، من العوامل المهمة في الحد من هذه الظاهرة.
اذا كنت تعتقد/تعتقدين أن المقال يحوي معلومات خاطئة أو لديك تفاصيل إضافية أرسل/أرسلي تصحيحًا
إذا كنت تعتقد/تعتقدين أن المقال ينتهك أيًا من المبادئ الأخلاقية أو المعايير المهنية قدم/قدمي شكوى
-
تابعنا على :