كيف نقلل من أخطار المحادثات التوليدية لبرامج الذكاء الصناعي

  • 2023/08/06
  • 1:14 م

تعبيرية- (جيتي ايماجز)

تحظى منصات المحادثة المدمجة بالذكاء الصناعي باهتمام كبير في المجتمع، ويمكن أن تكون أداة تقدم خدمات توفر الوقت والمال، لكنها في الوقت ذاته، وبسبب مبدأ عملها، لديها بعض الأخطار الأمنية والقانونية بما يتعلق بخصوصية البيانات.

من نماذج الأخطار في منصات المحادثة التوليدية بالذكاء الصناعي، تلك الناتجة عن استخدام “ChatGPT”، فكيف يمكن التخفيف منها.

خصوصية البيانات

منصة “ChatGPT” غير مصممة للتعامل مع البيانات الحساسة، إذ لا يوجد تشفير للبيانات بين الطرفين (المستخدم والمنصة)، وتتمتع شركة “OpenAI” المالكة لمنصة “ChatGPT” بإمكانية الوصول إلى سجلات الدردشة الخاصة بالمستخدم، بما في ذلك أي معلومات شخصية أو حساسة يدخلها، وفق قواعد الخصوصية التي وافق عليها المستخدم قبل بدء استخدام المنصة.

وتُستخدم سجلات الدردشة الخاصة بالمستخدمين لتحسين نموذج اللغة وتطوير استجابة “ChatGPT” للأسئلة، ولدى “OpenAI” سياسة استخدام البيانات التي تشير إلى حفظ البيانات فقط “للمراقبة”، تجنبًا لسوء الاستخدام، وأنها ستُحذف بعد 30 يومًا، “ما لم تكن لأغراض التدريب”.

الافتقار إلى التشفير وحجم البيانات الضخم لمحادثات المستخدمين يجعلان “ChatGPT” هدفًا محتملًا للهجمات الإلكترونية، ويلزم لاستخدام “ChatGPT” تقديم الاسم الكامل وعنوان البريد الإلكتروني.

وللتخفيف من مخاوف الخصوصية يجب عند استخدام “ChatGPT” الامتناع عن تضمين أي بيانات تعريف شخصية، وتجنب مشاركة أي موقع أو معلومات اتصال شخصية أو متعلقة بالعمل.

مخاوف قانونية

يستمد “ChatGPT” المعلومات المقدمة للمستخدمين من الإنترنت، وظهرت بعض المخاوف بشأن استخدامه لإنشاء محتوى إلكتروني على وسائل التواصل الاجتماعي ومواقع المدونات ومنصات أخرى على أنه محتوى أصلي أنشئ من قبل المستخدم.

ويستخدم “ChatGPT” المحتوى الموجود على الإنترنت، بغض النظر عن لوائح حقوق النشر الخاصة بهذا المحتوى، كما أنه لا يذكر أي مصادر للمعلومات.

وظهرت لدى المستخدمين تساؤلات حول حل لمشكلة إلغاء تفعيل نسخةويندوز بسبب “كود” تفعيل غير قانوني تم إحضاره من “ChatGPT”، كإحدى المشكلات التي واجهت مستخدمي المنصة لعدم وجود مصادر للبيانات.

طرحت “OpenAI” تحديثات على منصة الذكاء الصناعي لتحسين النموذج، بحيث لا ينشأ نسخ حرفي للنص الموجود على الإنترنت، كما أنها تشجع المستخدمين على إسناد المعلومات المأخوذة من المنصة إلى مصادر واضحة، ومع ذلك لا تزال هناك أخطار من أن تكون المعلومات المأخوذة من “ChatGPT” قريبة جدًا من عمل شخص آخر.

وللتأكد من عدم نشر محتوى ذي حقوق نشر، يفضّل استخدام “ChatGPT” بشكل يقتصر على توليد الأفكار لتوفير الوقت بدلًا من طلب إنشاء نسخة نهائية.

كما يمكن استخدام مدقق المؤلفات النصية المكررة، مثل تطبيق “Grammarly“، للتأكد من عدم سرقة نص مكتوب دون قصد عبر نسخة مولدة من “ChatGPT”.

معلومات دقيقة؟

لا ينبغي التعامل مع “ChatGPT” كمصدر للمعلومات الدقيقة أو الحقائق، ويحتاج المستخدمون دائمًا إلى التحقق من دقة أي معلومات مأخوذة من منصة الذكاء الصناعي.

جرى تدريب “ChatGPT” على إعطاء ردود شبيهة بالبشر من البيانات المتاحة على الإنترنت، وليس بالضرورة أن تكون إجابات دقيقة، بالإضافة إلى التعلم المعزز من ردود الفعل البشرية (RLHF)، وكلاهما عرضة للأخطاء والتحيز في المعلومات.

وتدربت منصة “ChatGPT” على المعلومات والبيانات المحدودة حتى أيلول 2021، لكنها قد تحاول الإجابة عن الأسئلة المتعلقة بالأحداث التي وقعت بعدها حتى لو لم تكن الإجابة في مجموعة البيانات الخاصة بها.

مقالات متعلقة

تكنولوجيا

المزيد من تكنولوجيا