النوايا الخبيثة لروبوتات الذكاء الاصطناعي
عنب بلدي – علي بهلول
تقدم الروبوت الأول بحذر من باب المختبر، استطلع الأجواء، ثم أشار لزميله الآخر، الذي فتح له الباب ليهربا معًا من أيدي الباحثين.
ما إن ظهر الفيديو الذي نشرته شركة “Boston Dynamics”، حتى اشتعل الجدل حول خطر الروبوتات وأنظمة الذكاء الاصطناعي على البشرية.
وبالرغم من المسؤولية الكبيرة التي تقع على عاتق السينما في تخويف البشر من التكنولوجيا، خلقت ثورة البرمجة الأخيرة تحديين حقيقيين بعيدًا عن الخيال.
التحدي الأول يتعلق بخصوصية مستخدمي الإنترنت والتكنولوجيا، فمن الهواتف الذكية إلى الحسابات الشخصية على مواقع التواصل الاجتماعي، كل نقرة للمستخدم مسجلة في بيانات ضخمة، ما يعني أن كشف أشد مواطن الحياة الشخصية سريةً لن يكون أمرًا مستحيلًا إذا رغبت جهة ما بفعل ذلك.
والتحدي الثاني يتعلق بالأمن العام وقضايا السلم والحرب، إذ أتاحت التكنولوجيا مؤخرًا فرصة لصناعة جيوش من الروبوتات، بقدرات تدميرية هائلة، وبتكلفة منخفضة.
استغلال الحياة الشخصية في السياسة
انتهاك الخصوصية لا يتوقف على العلاقات الشخصية للبشر فقط، بل يتعدى ذلك إلى استخدامات سياسية، قد يصفها الكثير من الناس بـ “الشريرة”.
أبرز مثال حدث منذ فترة قريبة، كان وصول دونالد ترامب إلى سدة السلطة في الولايات المتحدة الأمريكية، والذي جرى عبر استغلال كميات هائلة من بيانات المستخدمين الأمريكيين، لتوجيه دعاية سياسية مضللة لهم، أدت بالنهاية إلى فوز المرشح الأقل حظًا بكرسي الرئاسة.
طور العديد من المبرمجين وبالاستعانة مع خبراء تحليل نفسي، أسلوبًا لتحليل بيانات المستخدمين، ما منح جهات متنفذة حول العالم قدرة هائلة على معرفة شخصية المستخدم بشكل دقيق، وكأنهم من أفراد عائلته.
وبحسب تحقيقات أجرتها مواقع التواصل الاجتماعي، مثل “فيس بوك” و”تويتر”، فإن فترة الانتخابات الأمريكية شهدت نشر أخبار مكثفة لإثارة التفرقة بين الأمريكيين، هذه الأخبار تم تصميمها بناءً على تحليل نفسي للمستخدمين.
تكتشف أنظمة الذكاء الاصطناعي ما يخيف الناخبين، وبناءً على هذه المعلومات بُنيت شخصية ترامب الوهمية، التي ستزيل هذا الخطر في حال وصوله إلى السلطة.
عبد الهادي السيد، خبير تقني ومطور برمجيات، أشار لعنب بلدي إلى جذور تاريخية للتعدي على الخصوصية، حين كانت رسائل البريد الورقي تُفتح للتأكد من محتواها، موضحًا أن الأمر تطور الآن للاطلاع على المحادثات الشخصية للمستخدمين عبر الإنترنت.
“الشركات لديها أهداف ربحية، ليست منظمات خيرية، وللاستفادة من الإعلانات تجمع بيانات المستخدمين لاستهدافهم بناءً على المعلومات التي تستخلصها من بياناتهم”، بحسب عبد الهادي.
وبالرغم من كون الاتحاد الأوروبي يعمل بدأب لسن قانون يلزم الشركات الموجودة على أراضيه، بتشفير البيانات التي تجمعها من قبل طرف ثالث، بحيث لا يمكن الوصول إليها إلا بأمر قضائي لأسباب تتعلق بالأمن القومي والإرهاب وما شابه، تبقى المسؤولية الأكبر على عاتق المستخدم.
يوضح عبد الهادي رأيه بالعودة إلى حق الشركات بالربح المادي، وعدم القدرة على ضبط المطامع السياسية للحكومات، وأن هذه الإجراءات معتمدة تاريخيًا، والشيء الوحيد الذي تطور هو التحول من المراقبة الورقية إلى المراقبة الإلكترونية.
ينصح عبد الهادي بتجنب تبادل معلومات مهمة جدًا عبر الإنترنت، وحجب أكبر قدر ممكن من المعلومات الشخصية، والتوقف عن الشرَه باستخدام وسائل التواصل الاجتماعي، بحيث يعيق المستخدم قدرة البرمجيات على تحليل شخصيته بشكل دقيق.
“البرمجة” سلاح الجيوش الفتاك
شكل إعلان إحدى الشركات لاستخدامها طائرات دون طيار (دراغون) كبديل للسلاح النووي، وبتكلفة منخفضة للغاية، وبأسلوب مليء بالفخر، بعد تطويرها لنظام تعرّف على الوجوه، يمكّن الطائرات الصغيرة من تنفيذ عمليات اغتيال دقيقة، صدمةً للمتابعين حول العالم.
طائرات “دراغون” غالبًا تستخدم للتصوير الفوتوغرافي والصحفي، وشهدت تطويرًا سمح باستخدامها في مجالات مثل الزراعة، لكن استخدامها كسلاح ذكّر باستغلال اكتشافات الذرة والنووي لاختراع أسلحة مدمرة، مقارنةً بفوائدها السلمية التي توفر مبالغ طائلة على البشرية.
علاقة الذكاء الاصطناعي بصناعة الأسلحة تتوثق يومًا بعد يوم، فتطوير الطائرات الحربية أصبح منصبًا الآن على أنظمة التخفي والتشويش، عوضًا عن القدرات القتالية والدفاعية.
ويذكر الخبير عدة حالات لسقوط طائرات مدنية وحربية في إسرائيل وتركيا مثلًا، بسبب قرصنة إلكترونية، موضحًا أن التأثير على الرادارات يجعل الطائرة عمياء في الجو، فالتفوق البرمجي في هذا المجال أهم بكثير من التفوق الحربي بالمعنى التقليدي للكلمة.
ويشير إلى سيطرة فصائل المعارضة على مطارات للنظام السوري، وعدم تحريكها لأي طائرة بسبب غياب الخبرة التقنية، ما جعل السلاح دون فائدة تمامًا بغياب القدرة على برمجته.
الذكاء الاصطناعي.. مخابرات لا يمكن الفرار منها
تحولت الصين في السنوات الأخيرة، منذ وصول شي جين بينغ لكرسي الرئاسة، إلى دولة محكومة برقابة الذكاء الاصطناعي، وكأنها خارجة من إحدى الروايات التي تصورت المستقبل على هذه الشاكلة.
الصين مراقبة بكاميرات فائقة الدقة، تعتمد على الذكاء الاصطناعي وبرمجيات التعرف على الوجوه، يمكنها كشف المشتبه بهم من بين مليارات البشر خلال ثوانٍ، وتخطط الحكومة الآن لتطوير كاميرات قادرة على التنبؤ بالجريمة من خلال تحليل لملامح وجه الجاني، ودرجة حرارته، وعمل أجهزته الداخلية المتوترة.
وبالرغم من أن هذا الاستخدام يبدو “نبيلًا” للوهلة الأولى، أشار العديد من الحقوقيين إلى استخدام هذه التكنولوجيا للتضييق على المعارضين للحزب الشيوعي الحاكم.
لكن الاستخدام الأمني للذكاء الاصطناعي لا يقف عند حدود الرقابة على البشر، إنما يتعداه إلى معاقبتهم بالموت في حال اضطر الأمر.
يذكر عبد الهادي السيد لعنب بلدي وجود فيروسات مختصة باستهداف الأجهزة الطبية في المستشفيات، لا سيما تلك المتعلقة بالقلب والأعضاء الحساسة من جسم الإنسان، ما يضع حياة المرضى في خطر.
وغالبًا تحدث هجمات القرصنة الإلكترونية بسرية تامة من قبل الجناة والضحايا، كونها تهدد الأمن العام للدولة، بحسب السيد.
بعد هجوم شنته كوريا الشمالية على شركة “سوني بكتشرز” للأفلام عام 2014، بسبب فيلم كوميدي عن اغتيال كيم جونغ أون، توعد الرئيس الأمريكي حينها، باراك أوباما، بالرد القاسي على هذا الاعتداء، وما كان من كوريا الشمالية إلا أن قطعت الإنترنت عن نفسها لمدة ثلاثة أيام، في إشارة واضحة لخطورة هذه الهجمات.
وتلعب أجهزة الأمن دورًا بارزًا في تشكيل هذا الخطر، أثناء سعيها لمراقبة الناس، كما حدث مع شركة “مايكروسوفت”، التي اتضح مؤخرًا وجود ثغرة في أنظمتها تسمح بالتجسس على مستخدميها، حتى في أثناء إطفاء الأجهزة، والمفاجأة كانت بعلم وكالة المخابرات المركزية “CIA” بوجود الثغرة، لكنها لم تبلغ الشركة عنها لتستغلها في عمليات المراقبة، ما أدى إلى تعريض ملايين المستخدمين للخطر من قبل القراصنة.
لا شك أن الذكاء الاصطناعي مرحلة متقدمة من إنجاز الحضارة البشرية، لكن الدعوات لوضع ضوابط أخلاقية لاستخدامه يجب أن تؤخذ على محمل الجد، بعد ازدياد استخدامه لأهداف غير سلمية أو نبيلة في الآونة الأخيرة.
ويعتبر الخبراء أن تحويل الطائرات دون طيار إلى صواريخ، والتلاعب بالرأي العام عن طريق الفيديوهات الزائفة، والقرصنة الآلية، ثلاثة تهديدات ناتجة عن وصول الذكاء الاصطناعي لدول ديكتاتورية ومجرمين وإرهابيين، بحسب تقرير حمل اسم “الاستخدامات الخبيثة للذكاء الاصطناعي”، صادر عن مركز “دراسة المخاطر الوجودية” التابع لجامعة “كامبريدج”.
اذا كنت تعتقد/تعتقدين أن المقال يحوي معلومات خاطئة أو لديك تفاصيل إضافية أرسل/أرسلي تصحيحًا
إذا كنت تعتقد/تعتقدين أن المقال ينتهك أيًا من المبادئ الأخلاقية أو المعايير المهنية قدم/قدمي شكوى
-
تابعنا على :