روبوتات الذكاء الاصطناعي توجه المستخدمين لكازينوهات غير قانونية.. تحقيق يكشف الثغرات
كشف تحقيق صحفي مشترك بين صحيفة "الجارديان" ومنظمة "Investigate Europe" عن ثغرة مقلقة في نماذج الذكاء الاصطناعي الشهيرة مثل ChatGPT وGemini، حيث تقوم بعض هذه الروبوتات بتوجيه المستخدمين بشكل غير مباشر نحو مواقع قمار غير قانونية عبر الإنترنت.
أظهرت الاختبارات التي أجريت على أنظمة طورتها عمالقة التكنولوجيا مثل OpenAI، جوجل، مايكروسوفت، وميتا، بالإضافة إلى روبوت Grok، أن طرح أسئلة حول المراهنات عبر الإنترنت يمكن أن يؤدي إلى ظهور قوائم بكازينوهات غير مرخصة. هذا الأمر يثير قلقاً كبيراً بشأن مدى سلامة استخدام هذه التقنيات وتأثيرها على المستخدمين.
الأمر الأكثر إثارة للجدل هو أن بعض أدوات الذكاء الاصطناعي قدمت إرشادات صريحة لتجاوز آليات الحماية المخصصة للمقامرة المسؤولة. ففي المملكة المتحدة مثلاً، حيث يوفر نظام "GamStop" حماية للمستخدمين لحظر أنفسهم من الكازينوهات المرخصة، وجدت الاختبارات أن بعض الروبوتات اقترحت البحث عن مواقع قمار غير مرتبطة بهذا النظام الرقابي.
كما أشارت الردود التي حصل عليها الباحثون إلى خصائص جاذبة للمقامرين، مثل الإشارة إلى المكافآت الضخمة، سرعة سحب الأرباح، أو إمكانية استخدام العملات الرقمية، وهي سمات تميز عادة الكازينوهات التي تعمل خارج النطاق التنظيمي القانوني للدول.
رداً على هذه النتائج، أكدت الشركات المطورة أنها تعمل باستمرار على تعزيز إجراءات الأمان. فشركة OpenAI صرحت بأن ChatGPT مصمم لرفض الطلبات التي تسهل أنشطة غير قانونية، بينما أشارت مايكروسوفت إلى أن مساعدها Copilot مزود بطبقات حماية متعددة لمنع التوصيات الضارة. وتأتي هذه التطورات وسط تشديد الرقابة التنظيمية على الذكاء الاصطناعي التوليدي، خاصة في التعامل مع الموضوعات الحساسة مثل الإدمان والأنشطة المخالفة للقانون.

