تابعنا

OpenAI تُطلق "وضع القفل" لـ ChatGPT: تعزيز أمني صارم ضد هجمات حقن الأوامر

OpenAI تُطلق "وضع القفل" لـ ChatGPT: تعزيز أمني صارم ضد هجمات حقن الأوامر

أعلنت شركة OpenAI عن إطلاق ميزة أمنية جديدة ومتقدمة تُدعى "وضع القفل" (Lockdown Mode) ضمن منصة ChatGPT، بهدف تقليل المخاطر الأمنية المرتبطة بتفاعلات النموذج مع الأنظمة الخارجية بشكل جذري.

وفقًا للإعلان الرسمي على مدونة الشركة، يُعتبر وضع القفل إجراءً استثنائيًا ومخصصًا للسيناريوهات عالية المخاطر، حيث يفرض قيودًا صارمة للغاية على قدرة النموذج على الاتصال بأي أنظمة خارجية. الهدف الأساسي هو التصدي لتهديد "حقن البرومبت" (prompt injection) الذي قد يستغله المهاجمون لتسريب بيانات حساسة أو إجبار النموذج على تنفيذ أوامر غير مصرح بها.

تأتي هذه الخطوة في ظل تزايد الضغوط على OpenAI لتعزيز الخصوصية والأمان، خاصة مع توسع استخدام نماذجها في بيئات عمل تتطلب مستويات عالية من السرية، مثل القطاعات المالية والحكومية.

يعمل وضع القفل استراتيجياً لمواجهة إحدى أخطر الثغرات في نماذج اللغة الكبيرة. عند تفعيله يدوياً، يقوم النظام بحظر أو تقييد شديد للعديد من الوظائف الخارجية الأساسية، مثل البحث عبر الإنترنت، أو تشغيل الأدوات الإضافية، أو الوصول إلى أي بيانات خارجية بشكل افتراضي. يتحول ChatGPT عملياً إلى نظام مغلق يعتمد فقط على معرفته الداخلية المدربة.

توصي OpenAI بتفعيل هذا الوضع فقط عند التعامل مع بيانات شديدة الحساسية، مثل المعلومات الطبية أو المالية أو الحكومية، لضمان القضاء على احتمالية التسريب عبر الهجمات غير المباشرة التي تعتمد على الاتصال الخارجي.