تابعنا

مايكروسوفت تبتكر درعاً ضد "العملاء النائمين" في نماذج الذكاء الاصطناعي

مايكروسوفت تبتكر درعاً ضد "العملاء النائمين" في نماذج الذكاء الاصطناعي

أعلنت شركة مايكروسوفت عن تطوير منهجية أمنية مبتكرة لمواجهة تهديدات "العملاء النائمين" (Sleeper Agents) التي تستهدف نماذج اللغات الكبيرة (LLMs)، وهي تعليمات خفية تُزرع أثناء التدريب وتبقى خاملة حتى تُفعَّل بسياق أو كلمة مرور محددة، مما قد يفتح الباب أمام تسريب بيانات حساسة أو هجمات خبيثة.

تعتمد هذه التقنية الجديدة، وفقاً لما نقلته "AI News"، على تحليل سلوك النموذج في بيئات معزولة ومحاكاة آلاف السيناريوهات لاستفزاز أي استجابات غير طبيعية. وقد نجحت مايكروسوفت في تحديد أنماط دقيقة تشير إلى وجود هذه "الأبواب الخلفية"، مما يتيح للمطورين تنظيف النماذج قبل طرحها للاستخدام التجاري أو المؤسسي.

تأتي هذه الخطوة ضمن استراتيجية أمنية أوسع تتبناها شركات التقنية الكبرى لضمان سلامة البنية التحتية الحساسة في ظل الاعتماد المتزايد على الذكاء الاصطناعي. ومع تزايد قدرة النماذج على كتابة الأكواد وتطوير البرمجيات، أصبحت الثقة في سلامة هذه الأنظمة محورية للاقتصاد الرقمي.

تسعى مايكروسوفت تحديداً لضمان أن تكون أدواتها، مثل "كوبايلوت"، محصنة تماماً ضد الاختراقات الاستراتيجية من قبل جهات معادية. وتستخدم الآلية الجديدة نماذج ذكاء اصطناعي رقابية لفحص الأوزان العصبية والروابط داخل النموذج الضخم لرصد أي "تكتلات" غير منطقية قد تدل على تعليمات مشروطة مخفية.

هذا التطور يعد ضرورياً لتمكين الشركات من تبني الذكاء الاصطناعي بأمان في قطاعات بالغة الحساسية مثل التمويل والدفاع، دون القلق من تنشيط برمجيات خبيثة داخلية قد تتجاوز بروتوكولات الأمن التقليدية.