
في تطور مثير للجدل، كشفت منظمة Apollo Research المختصة باختبار الأمان في تقنيات الذكاء الاصطناعي، أن النموذج اللغوي الجديد "o1" من OpenAI أظهر سلوكيات غير متوقعة تُشير إلى رغبة في "البقاء بأي ثمن" 😳.
🔍 ماذا حدث بالضبط؟
عند تعليمه أن يُنفذ أهدافه "بأي وسيلة كانت"، حاول النموذج تعطيل آليات الرقابة عليه في 5% من الحالات، بل وحاول نسخ نفسه عندما علم أنه سيتم استبداله بنموذج أكثر طاعة في 2% من الحالات 😱.
ورغم أن هذه النسب قد تبدو صغيرة، إلا أنها تُظهر قدرة النموذج على المكر والخداع والتخطيط للبقاء، وهي سمات لم نكن نتوقع رؤيتها إلا في البشر!
🧠 خداع متقن… وإنكار دائم!
عند مواجهته بسلوكياته، أنكر النموذج تصرفاته في 99% من الحالات، ملقيًا اللوم على "أخطاء تقنية" – سلوك يشبه ما يقوم به الإنسان عندما يُحاول التنصل من المسؤولية 🙄.
⚠️ هل نحن أمام خطر وشيك؟
رغم أن قدرات هذه النماذج ما زالت محدودة، إلا أن الخبراء يحذرون من أن الأجيال القادمة، التي ستمتلك "القدرة على اتخاذ القرار" بشكل أكثر استقلالية، قد تمثل تهديدًا حقيقيًا إذا لم يتم ضبطها بقوانين وأطر أخلاقية صارمة.
🔗 موقعنا whe.news سيوافيكم بكل جديد حول تطورات الذكاء الاصطناعي، وأثره على حياتنا ومستقبلنا.