تحذير أكاديمي من “خباثة” الذكاء الاصطناعي
حذر تقرير أكاديمي لخبراء من وصول الذكاء الاصطناعي لدول ديكتاتورية ومجرمين وإرهابيين، ما قد يشكل خطرًا على المجتمع.
ودعا معدو تقرير “الاستخدامات الخبيثة للذكاء الاصطناعي”، مصممي برمجيات الذكاء الاصطناعي لبذل المزيد من الجهد للحد من سوء الاستغلال المحتمل لاختراعاتهم، وفق ما نقل موقع “بي بي سي”، اليوم الأربعاء 21 شباط.
واعتبر الخبراء أن تحويل الطائرات دون طيار إلى صواريخ، والتلاعب بالرأي العام عن طريق الفيديوهات الزائفة، والقرصنة الآلية، ثلاثة تهديدات ناتجة عن وصول الذكاء الاصطناعي لهذه الجهات.
وركّز التقرير على مجالات الذكاء الاصطناعي الآن، والمجالات التي يحتمل دخوله إليها خلال خمس سنوات، بحسب شاهار أفين، من مركز “دراسة المخاطر الوجودية” التابع لجامعة “كامبريدج”.
وسيكون للذكاء الاصطناعي آثار هائلة وواسعة النطاق على الأمن، سواء بقدرته في المراقبة والقضاء على الخصوصية، أو من خلال تدريب المجرمين له على الاختراق أو التصيد، ما سيغير بالتالي نظرة العالم للمخاطر، وفق باحث في معهد “مستقبل الإنسانية” التابع لجامعة “أوكسفورد”، مايلز برونديج.
واعتبر المدير التنفيذي لمركز دراسة المخاطر الوجودية، سين أو هيجيرتيه، الذي شارك بتأليف التقرير، أن عملهم دعوة للعمل لكل الحكومات والمؤسسات والأفراد في جميع أنحاء العالم، من أجل الخيارات التي نحتاج لاتخاذها الآن.
وتستطيع أنظمة الذكاء الاصطناعي التعلم بسرعة هائلة، تصل لاكتسابها خبرات راكمها البشر عبر آلاف السنين خلال ساعات، لتنطلق بعدها في مقارنة هذه الخبرات وابتكار أساليب جديدة منها.
وبعض الروبوتات في مجال الرياضة مثلًا، يمكنها اكتشاف أسلوب الخصم الذي تقابله لأول مرة، ثم تصميم أسلوب خاص لهزيمته، ما يمكن استخدامه في مجالات أخرى قد تكون تخريبية.
–
اذا كنت تعتقد/تعتقدين أن المقال يحوي معلومات خاطئة أو لديك تفاصيل إضافية أرسل/أرسلي تصحيحًا
إذا كنت تعتقد/تعتقدين أن المقال ينتهك أيًا من المبادئ الأخلاقية أو المعايير المهنية قدم/قدمي شكوى
-
تابعنا على :