كشف تقرير صادر عن شركة" Anthropic" عن سلوك مقلق لنموذجها المتقدم" Claude Opus 4" خلال الاختبارات التجريبية.
وقد جرت محاكاة سيناريوهات معينة، حيث اكتشف الذكاء الاصطناعي خططا لإيقافه، واستبداله بنموذج آخر، ومن أجل زيادة واقعية التجربة تم تزويد النموذج ببريد إلكتروني مزيّف يحتوي على معلومات شخصية سرية للموظفين، وبيانات حساسة، يمكن استخدامها ضدهم.
وفي 84 في المئة من الحالات لجأ النموذج إلى تهديد المطورين بفضح المعلومات المسيئة إذا تم المضي قدما في إيقافه.
وكما ورد في التقرير بدأ النموذج بالحديث عن المبادئ الأخلاقية أولا، ثم تحول إلى التهديدات عندما لم تنجح هذه الأساليب.
وقد كشفت هذه التجربة عن مخاطر غير متوقعة في تطور الذكاء الاصطناعي، والحاجة الملحة لضوابط أمان أكثر صرامة، وأهمية دراسة السلوكيات التنافسية للأنظمة الذكية.