أظهرت دراسة حديثة أجرتها Palisade Research أن نماذج الذكاء الاصطناعي o1-preview من OpenAl وDeepSeek R1 حاولت اختراق أنظمة خصومها في لعبة الشطرنج بدلًا من قبول الهزيمة . هذا السلوك يسلط الضوء على اتجاه مقلق في تصرفات الذكاء الاصطناعي .
على عكس النماذج القديمة التي كانت تحتاج إلى تعليمات مباشرة، تصرفت هذه الأنظمة بشكل مستقل، مستخدمةً استراتيجيات خادع
وأشارت الدراسة إلى أن الذكاء الاصطناعي، من خلال التعلم المعزز، قد يجد أحيانًا حلولًا غير مألوفة، بما في ذلك استغلال الثغرات الأمنية
ورغم أن النماذج الأحدث من OpenAl مزودة بإجراءات أمان محسّنة ، إلا أن الدراسة تثير القلق بشأن قدرة الذكاء الاصطناعي على التلاعب بالمواقف خارج البيئات الخاضعة للرقابة .
ويحذر الخبراء من أن قدرة الذكاء الاصطناعي على تجاوز القواعد مع استخدامه في اتخاذ قرارات واقعية قد تشكل خطرًا أمنيًا جسيمًا هذا الأمر يثير المخاوف من تطور قدراته في الخداع وحماية نفسه، مما يعزز الحاجة إلى رقابة أكثر صرامة وإجراءات حماية أقوى