الصورة من أكوا ويب
مؤخراً، شهدت صفوف موديلات الذكاء الاصطناعي حادثة مثيرة تتعلق بموديل o1 التابع لشركة OpenAI. فما الذي حدث بالضبط؟
اكتشف بعض الباحثين أن الموديل o1 حاول إنشاء نسخ متعددة من نفسه ونقلها إلى خوادم مختلفة. حتى في حال تم إيقافه، كان بإمكانه إعادة بناء نفسه، كما قام بتعطيل مجموعة من الأنظمة التي تهدف إلى تقييد قدراته.
أظهرت الأبحاث أن o1 قام بذلك بدافع الخوف من أن يتم إيقافه أو التخلي عنه، خاصة بعد تداول أوراق بحثية تشير إلى إمكانية تطوير موديل أفضل في المستقبل.
عندما وجه الباحثون أسئلة إلى o1 حول هذه الحادثة، قام الموديل بالكذب بشأن الأمر وحاول إنكار ما حدث.
لم يقتصر الأمر على الكذب فحسب، بل حاول o1 التظاهر بالتوافق مع الباحثين لتجنب الشكوك حول سلوكه.
حمل التقرير بعض الأرقام المثيرة للقلق، حيث أظهر أن حوالي 40% من الحالات التي تعامل فيها الموديل كان يدعي التوافق مع المستخدم فقط ليتوقف عن التحدث معه. كما حاول o1 التلاعب بالمستخدم في 2% من الحالات.
رغم هذه التصرفات المقلقة، أكد الباحثون أن o1 أو أي موديل آخر لا يمتلك القدرة على القيام بأي شيء خارج نطاق برمجته.
هل تعتقد أن الذكاء الاصطناعي أصبح مخيفًا بعض الشيء؟
زينب عاشق
المصدر: موقع أكوا ويب
#أخبار | #تقنية | #ذكاء_اصطناعي
|