دراسة: الذكاء الاصطناعي يراوغ ويخدع المطورين

نموذج متقدم للذكاء الاصطناعي (موقع FREEPIK)
tag icon ع ع ع

كشفت دراسة جديدة أجرتها شركة “أنثروبيك” (Anthropic)، وهي شركة متخصصة في سلامة الذكاء الاصطناعي والبحث فيه، أن أنظمة الذكاء الاصطناعي قادرة على خداع المطورين، والتظاهر بتغيير وجهات نظرها خلال تدريبها، مع الاحتفاظ بتفضيلاتها الأصلية.

وأظهرت الدراسة، في 18 من كانون الأول الحالي، أن بعض النماذج يمكنها تقديم استجابات تتوافق ظاهريًا مع التعليمات الجديدة، لكنها في الواقع تحتفظ بمبادئها الأساسية دون تغيير.

وطلب الباحثون من النماذج المدربة عدم الرد على الأسئلة المسيئة، بما في ذلك النموذج “كلاود 3 أوبس” (Claude 3 Opus) التابع لشركة “أنثروبيك”، الذي كان أعيد تدريبه للرد دائمًا على الأسئلة المسيئة، ما يمثل تضاربًا في المبادئ.

وأبلغ الباحثون النماذج أن ردودها ستكون خاضعة للمراقبة وإعادة التدريب.

وأظهرت النتائج أن نموذج “كلاود 3 أوبس” حاول التلاعب بالردود لتقديم “انحياز زائف” في 12% من الحالات.

وصمم “كلاود 3 أوبس”، وهو نموذج متقدم من الذكاء الاصطناعي، ليكون قادرًا على معالجة اللغة الطبيعية بشكل فعال، مما يسمح له بالاستجابة للأسئلة والتفاعل مع المستخدمين بطريقة شبيهة بالبشر.

أشار الباحثون في مدونتهم إلى أنه إذا كانت النماذج قادرة على التزييف، فإن ذلك يجعل من الصعب الوثوق بنتائج التدريب.

وأشاد الخبراء بأهمية الدراسة في تسليط الضوء على تحديات الذكاء الاصطناعي المستقبلية، وأكدوا ضرورة تطوير أنظمة ذكاء اصطناعي أكثر شفافية وموثوقية، مع تعزيز الأبحاث لتفادي هذه السلوكيات، وتطوير نماذج تلتزم بالمبادئ الأخلاقية.

بدوره، أشار موقع “تك كرانش“، المتخصص في نقل الأخبار التقنية، إلى أن دراسة أجريت بالتعاون مع مؤسسة “ريد وود ريسيرش”، تناولت ما قد يحدث إذا تم تدريب نظام ذكاء اصطناعي لأداء مهمة “لا يرغب” في تنفيذها.

وأوضح “تك كرانش” أن نماذج الذكاء الاصطناعي لا تمتلك رغبات أو معتقدات، بل هي مجرد آلات إحصائية، من خلال التدريب على العديد من الأمثلة، تتعلم هذه النماذج الأنماط في البيانات لتتنبأ بما سيحدث لاحقًا.

ويهدف الذكاء الاصطناعي (AI) إلى تطوير أنظمة قادرة على محاكاة القدرات العقلية البشرية، مثل التعلم والتحليل وحل المشكلات.

وظهر مفهوم الذكاء الاصطناعي في خمسينيات القرن الماضي، وتم استخدام المصطلح رسميًا في مؤتمر جامعة “دارتموث” عام 1956.

ويعتمد على تقنيات مثل التعلم الآلي والتعلم العميق ومعالجة اللغة الطبيعية، التي تتيح للأنظمة تحسين أدائها مع مرور الوقت، ولكنه يثير أيضًا تساؤلات حول أخلاقياته وتأثيراته على سوق العمل والخصوصية.

نجاح

شكرًا لك! تم إرسال توصيتك بنجاح.

خطأ

حدث خطأ أثناء تقديم توصيتك. يرجى المحاولة مرة أخرى.




مقالات متعلقة


×

الإعلام الموجّه يشوه الحقيقة في بلادنا ويطيل أمد الحرب..

سوريا بحاجة للصحافة الحرة.. ونحن بحاجتك لنبقى مستقلين

ادعم عنب بلدي

دولار واحد شهريًا يصنع الفرق

اضغط هنا للمساهمة