باحثة سابقة في OpenAI تحذر: إعلانات ChatGPT قد تستغل بيانات المستخدمين الحساسة
حذرت زوي هيتزيج، الباحثة السابقة في OpenAI، بشدة من خطط الشركة لإدخال الإعلانات إلى ChatGPT، مشيرة إلى أن الروبوت يمتلك أرشيفًا غير مسبوق من التفاصيل الشخصية والحساسة للمستخدمين، مما يفتح الباب أمام مخاطر تلاعب لا يمكن فهمها حال تبني نموذج يعتمد على الربح الإعلاني.
أعربت هيتزيج عن قلقها العميق، ليس فقط من ظهور إعلانات عادية، بل من طبيعة المحتوى الذي شاركه المستخدمون على مدى سنوات. فعلى عكس منصات التواصل الاجتماعي، كانت المحادثات مع الذكاء الاصطناعي تتسم بالصراحة المطلقة، حيث شارك الناس مخاوفهم الصحية، ومشاكلهم العاطفية، وتساؤلاتهم الوجودية العميقة، معتقدين أنهم يتحدثون إلى كيان محايد لا يملك أجندة خفية.
وأوضحت هيتزيج أن هذا الأرشيف من "الصراحة الإنسانية" قد يُستخدم لبناء إعلانات تستهدف المستخدمين بطرق متقدمة، مما يمثل خطرًا للتلاعب لا تملك الأدوات اللازمة لمنعه حاليًا. ورغم تأكيد OpenAI أنها لن تبيع بيانات الدردشة للمعلنين ولن تشارك المحادثات معهم، فإن مخاوف الباحثة تتركز على المستقبل وتغير الحوافز الاقتصادية.
ترى هيتزيج أن تحول الشركة نحو الإعلانات يخلق "محركًا اقتصاديًا" يدفعها تدريجياً لتجاوز قواعد الخصوصية الخاصة بها، حتى لو كانت الإدارة الحالية لديها نوايا حسنة. هذا يضع OpenAI عند مفترق طرق، فبمجرد أن تصبح الإعلانات مصدر دخل أساسي، قد تتغير الأولويات نحو "تعظيم التفاعل" على حساب الحياد والضبط.
للتصدي لهذا السيناريو، دعت هيتزيج إلى ضرورة وضع ضمانات هيكلية قوية، مثل رقابة مستقلة ذات صلاحيات فعلية أو آليات قانونية تضمن وضع المصلحة العامة فوق تحقيق الأرباح التجارية. التحدي يكمن في أن المستخدمين، الذين يعانون من "إرهاق الخصوصية"، يميلون للتغاضي عن هذه المخاطر مقابل الاستمرار في استخدام الخدمات المجانية.

