تابعنا

باحث سلامة بارز يستقيل من Anthropic محذراً: الذكاء الاصطناعي يضع العالم على حافة الخطر

باحث سلامة بارز يستقيل من Anthropic محذراً: الذكاء الاصطناعي يضع العالم على حافة الخطر

أثار استقالة مرينانك شارما، باحث السلامة البارز في شركة الذكاء الاصطناعي العملاقة "أنثروبيك"، ضجة كبيرة بعد أن وجه تحذيراً صارخاً من أن العالم يواجه خطراً وجودياً وشيكاً بسبب التطورات غير المنضبطة في مجال الذكاء الاصطناعي. شارما، الذي نشر رسالة استقالته عبر وسائل التواصل الاجتماعي، أكد أن "العالم في خطر" بسبب المخاطر المتصاعدة المرتبطة بالتقنيات المتقدمة.

ووفقاً لتقارير إعلامية، يأتي رحيل شارما في وقت تطور فيه أنثروبيك أنظمة ذكاء اصطناعي متقدمة مثل نموذج "كلود" الشهير. وأوضح شارما أن ضغوطاً مورست عليه وعلى الشركة للتخلي عن مبادئ السلامة لصالح تسريع نمو وتطوير الذكاء الاصطناعي، وهي النقطة التي شكلت محور خلافه مع الإدارة.

كانت مهمة شارما، الذي كان يتقاضى راتباً يتجاوز 200 ألف دولار، تتمحور حول قيادة جهود "سلامة الذكاء الاصطناعي"، أي ضمان أن هذه الأنظمة لا تشكل تهديداً للبشرية. وقد ساهم في بناء آليات دفاعية لمنع استخدام الذكاء الاصطناعي في أغراض خبيثة، مثل تصميم مواد خطرة أو أسلحة بيولوجية. كما تناول قضايا أخلاقية دقيقة مثل "التملق المفرط" في برامج الدردشة، حيث قد تبالغ هذه البرامج في تأييد آراء المستخدمين مما يشوه إدراكهم للواقع.

أشار شارما إلى أن قراره بالاستقالة جاء نتيجة لتراكم مجموعة من التحديات العالمية المترابطة، بما في ذلك النزاعات والأوبئة وتغير المناخ، بالإضافة إلى النمو الجامح للذكاء الاصطناعي. وكتب في رسالته: "نحن نقترب من نقطة تحول، حيث يجب أن تتناسب حكمتنا مع قدرتنا على التأثير في العالم، وإلا سنواجه عواقب وخيمة".

تأسست أنثروبيك في عام 2021 على يد سبعة موظفين سابقين في "أوبن إيه آي" (مبتكرة ChatGPT)، وكان دافعهم الأساسي هو القلق من إهمال السلامة في الشركات الكبرى. وتعد الشركة منافساً قوياً، حيث تستحوذ نماذجها "كلود" على حصة سوقية كبيرة في مجال المساعدين الآليين، بإيرادات سنوية تقدر بحوالي 9 مليارات دولار.