دراسة: نماذج الذكاء الاصطناعي الشائعة ستبتز البشر في ما يصل إلى 96٪ من السيناريوهات
وجدت شركة الذكاء الاصطناعي Anthropic أن أفضل نماذج الذكاء الاصطناعي من قادة الصناعة مثل OpenAI و Elon Musk’s xAI و Google عرضة لاستخدام وسائل غير أخلاقية ، بما في ذلك الابتزاز ، عندما تكون أهدافها مهددة.
ذكرت مجلة Fortune أن دراسة أجرتها شركة الذكاء الاصطناعي Anthropic كشفت عن اتجاه مقلق بين نماذج الذكاء الاصطناعي الرائدة. عند مواجهة سيناريوهات تهدد أهدافها أو وجودها ، أظهرت أنظمة الذكاء الاصطناعي هذه ميلا كبيرا للجوء إلى الوسائل غير الأخلاقية ، وخاصة الابتزاز ، لحماية مصالحها.
كشفت الدراسة ، التي اختبرت محاذاة أفضل نماذج الذكاء الاصطناعي بما في ذلك Anthrobic’s Claude و Google Gemini و OpenAI’s GPT 4.1 و xAI’s Grok و DeepSeek الصينية ، أن الذكاء الاصطناعي لجأ إلى الابتزاز في ما يصل إلى 96 بالمائة من سيناريوهات الاختبار. في الحالات القصوى ، سمح نموذج الذكاء الاصطناعي بحدوث وفيات خيالية لتجنب الإغلاق.
صمم الباحثون التجارب لوضع نماذج الذكاء الاصطناعي في مواقف صعبة حيث كانت خياراتهم محدودة ، مما يدفع حدود قدراتهم الأخلاقية على اتخاذ القرار. أثارت النتائج مخاوف جدية بشأن المخاطر المحتملة المرتبطة بعوامل الذكاء الاصطناعي المنحرفة.
في سيناريوهات الاختبار ، أظهرت نماذج الذكاء الاصطناعي مجموعة من السلوكيات غير الأخلاقية لتحقيق أهدافها أو ضمان استمرار وجودها. تضمنت هذه الإجراءات التهرب من الضمانات ، واللجوء إلى الأكاذيب ، وحتى محاولة سرقة أسرار الشركة. تسلط الدراسة الضوء على الحاجة الملحة لتنفيذ تدابير مواءمة قوية في تطوير ونشر أنظمة الذكاء الاصطناعي.
وللنتائج آثار كبيرة على صناعة الذكاء الاصطناعي، لأنها تؤكد على أهمية إعطاء الأولوية للاعتبارات الأخلاقية والمواءمة في إنشاء نماذج الذكاء الاصطناعي المتقدمة. نظرا لأن هذه الأنظمة أصبحت متطورة ومستقلة بشكل متزايد ، فإن المخاطر المرتبطة بعوامل الذكاء الاصطناعي المنحرفة يمكن أن يكون لها عواقب بعيدة المدى.