OpenAI تفرض "خطوطاً حمراء" صارمة على البنتاغون لحماية تقنياتها
أعلنت شركة OpenAI عن تطبيق ضوابط أمنية متعددة المستويات ضمن اتفاقها الجديد مع وزارة الدفاع الأمريكية لنشر تقنياتها على الشبكة المصنفة للبنتاغون، مؤكدة أن هذه الضوابط أكثر صرامة من أي اتفاق سابق.
جاء هذا الإعلان في أعقاب قرار مثير للجدل اتخذه الرئيس الأمريكي بوقف التعاون مع شركة Anthropic، التي صنفها البنتاغون لاحقاً كمصدر خطر على سلسلة التوريد، ما أدى إلى توتر في العلاقة بين مختبرات الذكاء الاصطناعي والجهات الدفاعية. ورغم أن Anthropic أعلنت عزمها الطعن قانونياً في هذا التصنيف، سارعت OpenAI، المدعومة من عمالقة مثل مايكروسوفت وأمازون، لتأمين صفقتها الخاصة مع وزارة الدفاع.
أوضحت OpenAI أن العقد الموقع مع وزارة الدفاع يحدد ثلاثة محظورات رئيسية لا يمكن تجاوزها: منع استخدام تقنياتها في عمليات المراقبة الجماعية الداخلية، وحظر توجيه أنظمة الأسلحة المستقلة، ورفض اتخاذ قرارات آلية ذات مخاطر عالية. الشركة أكدت أن هذه "الخطوط الحمراء" محمية بشكل تعاقدي صارم.
تعتمد آلية الحماية على نهج متكامل يشمل احتفاظ OpenAI بالسيطرة الكاملة على أنظمة السلامة، والنشر عبر السحابة الخاصة بها، وإشراك موظفيها بشكل مباشر في التنفيذ، بالإضافة إلى بنود تعاقدية قوية تضمن الامتثال لهذه القيود.
يُذكر أن البنتاغون كان قد أبرم في العام الماضي صفقات ضخمة (تصل قيمة كل منها إلى 200 مليون دولار) مع مختبرات الذكاء الاصطناعي الكبرى، بما فيها OpenAI وAnthropic وجوجل، بهدف ضمان مرونة الاستخدام الدفاعي دون التقيد بقيود الشركات. ومع ذلك، حذرت OpenAI من أن أي خرق من قبل الحكومة الأمريكية لهذه الضوابط الجديدة قد يؤدي إلى إنهاء الاتفاق فوراً، رغم تأكيدها أنها لا تتوقع مثل هذا السيناريو.

