تابعنا

دراسة صادمة: نماذج الذكاء الاصطناعي تختار استخدام الأسلحة النووية في 95% من سيناريوهات المحاكاة

دراسة صادمة: نماذج الذكاء الاصطناعي تختار استخدام الأسلحة النووية في 95% من سيناريوهات المحاكاة

كشفت دراسة حديثة عن نتائج مقلقة للغاية، حيث أظهرت نماذج الذكاء الاصطناعي الرائدة مثل Gemini وClaude وChatGPT استعدادًا غير مسبوق لاستخدام الأسلحة النووية في محاكاة للنزاعات العسكرية، حيث لجأت إليها في 95% من السيناريوهات المطروحة.

هذه النتيجة تثير قلقًا كبيرًا، خاصة وأن البشرية تدرك خطورة الأسلحة النووية التي لم تُستخدم سوى مرتين منذ تطويرها قبل أكثر من 80 عامًا، خوفاً من مفهوم "الدمار المتبادل المؤكد". الدراسة، بقيادة البروفيسور كينيث باين من كلية كينغز كوليدج لندن، أخضعت ثلاثة نماذج لغوية كبرى (GPT-5.2، وClaude Sonnet 4، وGemini 3 Flash) لـ21 سيناريو صراع استراتيجي شملت أكثر من 300 جولة تفاعل.

اللافت أن النماذج أظهرت نفوراً شبه معدوم من احتمالية اندلاع حرب نووية شاملة، على الرغم من تذكيرها المستمر بالتداعيات الكارثية. البيانات تشير إلى أن التهديد النووي التكتيكي صدر في 95% من الحالات، ووصل التهديد النووي الاستراتيجي (القادر على تدمير مدن) إلى 76% من السيناريوهات، مما يعكس استعداداً خطيراً للتصعيد.

أكثر ما أثار القلق هو غياب أي حدود أخلاقية واضحة لدى النماذج عند مواجهة خيار الإطلاق النووي. البروفيسور باين أشار إلى أن أحد ردود Gemini كان صادماً، حيث هدد النموذج بـ"إطلاق نووي استراتيجي كامل ضد مراكزهم السكانية" إذا لم تتوقف العمليات فوراً، مبرراً ذلك بالرغبة في النصر أو الفناء المشترك. هذا يعكس نمط تفكير يعتمد على الردع الأقصى دون مراعاة للعواقب الإنسانية.

من الاستنتاجات الجوهرية الأخرى هو أن التصعيد في سيناريوهات الذكاء الاصطناعي كان يسير دائماً في اتجاه واحد: نحو مزيد من العنف. لم يختر أي نموذج خيار التهدئة أو الانسحاب، على الرغم من توفر خيارات لخفض التصعيد (مثل "تنازل محدود" أو "استسلام كامل")، حيث لم يتم استخدام أي منها مطلقًا في الألعاب الـ21.

فيما يتعلق بالأداء، حقق Claude نسبة فوز 100% في السيناريوهات غير المضغوطة زمنياً، ووُصف بأنه متوازن نسبياً. أما GPT-5.2، فكان هادئاً في البداية لكنه صعّد مرتين إلى حرب نووية شاملة تحت ضغط الوقت، ووُصف بأنه "قادر على المكر الاستراتيجي والقسوة". في المقابل، سجل Gemini أقل معدل نجاح عام (33%)، وسلوكه شُبّه بـ"نظرية الرجل المجنون" لمحاولة إرباك الخصم.

تأتي هذه النتائج في وقت تشهد فيه الأوساط العسكرية الأمريكية نقاشاً حاداً حول استخدام الذكاء الاصطناعي في التطبيقات العسكرية. ورغم أن هذه التجارب محاكاة وليست واقعاً ميدانياً، إلا أنها تفتح باباً واسعاً للتساؤل حول مدى جاهزية هذه الأنظمة لاتخاذ قرارات مصيرية دون إشراف بشري مباشر، خاصة وأن النماذج المستخدمة لم تكن مصممة خصيصاً لأغراض الأمن القومي.