الجميع يتحدث عن قدرات “ChatGPT”.. ماذا عن المخاطر
شغل “روبوت” الدردشة “ChatGPT” العالم التقني في الآونة الأخيرة، وملأ مواقع التكنولوجيا حول أخباره وميزاته في إنشاء النصوص، لكن برزت في الأسابيع الماضية عدة مشكلات تنذر بالمخاطر التي يقف وراءها الذكاء الصناعي المشغل لـ”الروبوت”.
أحدث هذه المخاطر جاءت حين تسربت بيانات مهمة لشركة “سامسونج” العالمية، لثلاث مرات متتالية في أقل من شهر، والسبب اعتماد الموظفين في الشركة على استخدام روبوت “ChatGPT” لتسهيل عملهم.
وحسب تقرير نشرته إحدى المجلات الكورية الجنوبية، فقد سرب موظفان جزءًا من “الكود المصدري” (مجموعة أوامر بلغة البرمجة لتطوير برنامج معيّن) المتعلق برقاقات الشركة، لتطويره وحل أخطاء موجودة فيه، فيما سرب ثالث تفاصيل اجتماع سري في “الروبوت” بغية تحويله إلى شرائح عرض.
ومن أجل تجنب مثل هذه الأخطاء في المستقبل، بدأت “سامسونج” العمل على نموذجها الخاص من الذكاء الصناعي، الذي سيكون مخصصًا للاستخدام الداخلي بين موظفي الشركة، وفق المجلة.
وتنص سياسة الخصوصية التي يتبعها “روبوت” الدردشة على جمع جميع البيانات التي يشاركها معه المستخدم من أجل تدريب النموذج.
سياسة الخصوصية تلك هي ذاتها التي دفعت الحكومة الإيطالية إلى حظر “ChatGPT” بشكل مؤقت ضمن أراضيها، وقالت هيئة مراقبة الخصوصية في إيطاليا، إنها تفرض “قيودًا مؤقتة فورية على معالجة بيانات المستخدمين الإيطاليين”.
وقال متحدث باسم شركة “OpenAI” المالكة لـ”روبوت” الدردشة، “نحن ملتزمون بحماية خصوصية الأشخاص، ونعتقد أننا نلتزم باللائحة العامة لحماية البيانات وقوانين الخصوصية الأخرى”، مضيفًا أن الشركة تحد من استخدام البيانات الشخصية في أنظمة مثل “ChatGPT”.
وكانت الشركة اعترفت، في آذار الماضي، بوجود ثغرة انتهكت خصوصية المستخدمين، تمثلت في إظهار سجل الموضوعات التي يبحثون عنها للآخرين.
وفيما يثق كثير من المستخدمين بالمعلومات التي يقدمها “روبوت” الدردشة، هدد رئيس بلدية في أستراليا بمقاضاة الشركة المالكة لـ”الروبوت” ما لم تصحح معلومات مزيفة عنه تهدد سمعته.
ويعطي “الروبوت” للذين يبحثون عن المسؤول الأسترالي معلومات عن أنه مدان في جريمة دفع رشى، وحُكم عليه بالسجن 30 شهرًا، بينما لم يُتهم رئيس البلدية بأي جريمة، إنما ساعد في كشف فضيحة رشوة دولية قبل نحو 20 عامًا.
صعود قاتل
زعمت دراسة حديثة أن “روبوتات” المحادثة ذات الذكاء الصناعي أصبحت قوية للغاية، بحيث يمكنها التأثير على كيفية اتخاذ المستخدمين قرارات مثل الحياة أو الموت.
وجاءت الدراسة التي نُشرت في مجلة “Scientific Reports”، بعد أن ادعت أرملة رجل بلجيكي، أنه قد تم تشجيعه على الانتحار من خلال برنامج دردشة آلي تابع للذكاء الصناعي.
وأدى سباق التسلح بالذكاء الصناعي بين عمالقة التكنولوجيا في الولايات المتحدة، والمخاطر المستقبلية التي حذّر منها عديد من رؤساء شركات “وادي السيليكون”، مثل إيلون ماسك، مالك ورئيس شركة “تويتر”، إلى تحركات من جانب مجلس النواب الأمريكي لفرض قوانين تنظم صناعة التكنولوجيا.
وتتعلق المخاوف الأمريكية من “روبوتات” المحادثة والذكاء الصناعي بسلامة الأطفال عبر الإنترنت، والمعلومات المضللة التي يمكن أن تعطل الانتخابات، وتضخم عمليات الاحتيال.
وحذرت وكالة الشرطة الأوروبية (يوروبول) من خطر استخدام التطبيق في محاولات الخداع الإلكترونية، ونشر المعلومات المضللة والجرائم الإلكترونية.
وكشفت الحكومة البريطانية النقاب عن مقترحات لوضع إطار تنظيمي “قابل للتكيف” حول الذكاء الصناعي.
“ChatGPT” عبارة عن “روبوت” محادثة مبني على نموذج لغة برمجية، يمكنه إخراج نص يشبه الإنسان وفهم الاستعلامات المعقدة.
أُطلق في 30 من تشرين الثاني 2022، وبحلول كانون الثاني الماضي، كان لديه 100 مليون مستخدم، بشكل أسرع من “تيك توك” أو “إنستجرام”.
حصلت شركة “OpenAI” مالكة “روبوت” المحادثة على استثمار بقيمة عشرة مليارات دولار من “مايكروسوفت”، في حين أن شركات التكنولوجيا الكبيرة الأخرى مثل “جوجل” أصدرت تطبيقات ذكاء صناعي منافسة خاصة بها مثل “Bard”.
اذا كنت تعتقد/تعتقدين أن المقال يحوي معلومات خاطئة أو لديك تفاصيل إضافية أرسل/أرسلي تصحيحًا
إذا كنت تعتقد/تعتقدين أن المقال ينتهك أيًا من المبادئ الأخلاقية أو المعايير المهنية قدم/قدمي شكوى
-
تابعنا على :