تابعنا

دعم مفاجئ لـ Anthropic: موظفون من OpenAI وجوجل يواجهون البنتاجون

دعم مفاجئ لـ Anthropic: موظفون من OpenAI وجوجل يواجهون البنتاجون

أكثر من 30 مهندسًا وباحثًا من شركتي OpenAI وGoogle DeepMind أعلنوا دعمهم لشركة Anthropic في معركتها القانونية ضد وزارة الدفاع الأمريكية (البنتاجون)، وذلك بعد أن صنفتها الوزارة كمصدر خطر على سلسلة التوريد.

الوثائق التي قُدمت للمحكمة يوم الاثنين كشفت عن توقيع هذا العدد من الموظفين على بيان قانوني مشترك ينتقد قرار الحكومة الأمريكية، واصفين إياه بأنه "تعسفي وغير مبرر" وقد يضر بمستقبل صناعة الذكاء الاصطناعي في الولايات المتحدة ككل.

من بين الموقعين كان العالم البارز جيف دين، كبير العلماء في Google DeepMind، بالإضافة إلى مهندسين وباحثين آخرين. وشدد البيان على أن مثل هذه الإجراءات الحكومية يمكن أن تخلق سوابق خطيرة تؤثر على المنافسة العالمية المتزايدة في قطاع الذكاء الاصطناعي.

سبب النزاع يعود إلى رفض Anthropic السماح للبنتاجون باستخدام تقنياتها في المراقبة الجماعية أو في أنظمة الأسلحة المستقلة. ورغم أن وزارة الدفاع جادلت بأن لها الحق في استخدام التقنية لأي غرض قانوني، رفعت Anthropic دعويين قضائيتين للطعن في تصنيفها الذي يعتبر عادة مخصصًا للشركات المرتبطة بدول معادية.

الموقعون أشاروا إلى أن البنتاجون كان لديه خيار أسهل: إذا لم يكن راضيًا عن شروط التعاقد الأخلاقية التي فرضتها Anthropic، كان بإمكانه ببساطة إلغاء العقد والتعاقد مع شركة أخرى، بدلاً من اتخاذ إجراء تصنيفي قاسٍ.

المفارقة أن وزارة الدفاع وقعت اتفاقية مع OpenAI فور تصنيفها لـ Anthropic كمصدر خطر، مما أثار قلقًا داخليًا بين بعض موظفي OpenAI أنفسهم. ويحذر البيان من أن هذه الإجراءات قد تضعف القدرة التنافسية الأمريكية وقد تكبح النقاش المفتوح حول الضوابط الأخلاقية للذكاء الاصطناعي.

كما أكد البيان أن القيود الأخلاقية التي وضعتها Anthropic هي خطوط حمراء مشروعة ومهمة، خاصة في ظل غياب تشريعات حكومية واضحة تنظم الاستخدامات الكارثية المحتملة لهذه التكنولوجيا المتقدمة.