تحذير من إدخال الإعلانات إلى ChatGPT وسط مخاوف تتعلق بخصوصية المستخدمين
في ظل السباق العالمي بين شركات الذكاء الاصطناعي لتحويل الابتكارات التقنية إلى نماذج أعمال مربحة ومستدامة، أثارت باحثة سابقة في شركة OpenAI جدلًا واسعًا حول مستقبل منصة ChatGPT، محذّرة من المخاطر المحتملة لإدخال الإعلانات إلى المنصة، خاصة في ظل الكم الهائل من البيانات الشخصية التي يشاركها المستخدمون عبر المحادثات اليومية، زوي هيتزيغ، الباحثة السابقة في OpenAI، أعربت عن قلقها من أن يتحول ChatGPT من أداة مساعدة محايدة إلى منصة تجارية تعتمد على استغلال البيانات، مشيرة إلى أن المستخدمين منحوا المنصة مستوى غير مسبوق من الثقة والصراحة.
مخاوف تتجاوز الإعلانات التقليدية
لا يقتصر قلق هيتزيغ على ظهور الإعلانات داخل المحادثات أو توصيات مدفوعة داخل الردود، بل يتجاوز ذلك إلى طبيعة المعلومات التي يشاركها المستخدمون مع الذكاء الاصطناعي، فعلى عكس منصات التواصل الاجتماعي التي ينشر فيها المستخدمون محتوى موجّهًا للجمهور العام، فإن المحادثات مع ChatGPT غالبًا ما تكون شخصية للغاية، حيث يناقش المستخدمون قضايا حساسة تتعلق بالصحة النفسية، والمشاكل العاطفية، والمعتقدات الدينية، والهوية الشخصية، وحتى القرارات المصيرية في حياتهم، وتشير الباحثة إلى أن هذا النوع من البيانات يمثل أرشيفًا غير مسبوق من الصراحة الإنسانية، ما يجعل استغلاله تجاريًا خطرًا أخلاقيًا وتقنيًا كبيرًا.
أرشيف من الصراحة الإنسانية بلا سابقة
توضح هيتزيغ أن المستخدمين تعاملوا مع ChatGPT كطرف محايد لا يمتلك أجندة خفية، ما شجعهم على مشاركة تفاصيل دقيقة عن حياتهم الشخصية، وقالت إن هذا المستوى من الصراحة لم يكن موجودًا على منصات الإنترنت السابقة، حيث كانت البيانات غالبًا عامة أو مُعدّلة بعناية، وترى الباحثة أن بناء نماذج إعلانية على هذا الأرشيف من البيانات قد يفتح الباب أمام التلاعب بالمستخدمين بطرق غير مسبوقة، خاصة في ظل عدم وجود أدوات كافية لفهم أو ضبط هذه التأثيرات النفسية والاجتماعية.
موقف OpenAI من الإعلانات وحماية البيانات
كانت OpenAI قد أشارت في تصريحات سابقة إلى إمكانية اختبار نماذج إعلانية داخل ChatGPT، لكنها أكدت في الوقت نفسه أنها لن تشارك محادثات المستخدمين مع المعلنين، وأن بيانات الدردشة ستظل خاصة ولن تُباع لأي جهة إعلانية، وجاء في بيان للشركة أنها تحافظ على خصوصية المستخدمين وتفصل بين البيانات الشخصية والنماذج التجارية.
ومع ذلك، أوضحت هيتزيغ أنها لا تتهم الشركة بانتهاك هذه التعهدات حاليًا، لكنها تحذر من تغيّر الأولويات مستقبلًا مع تغيّر نماذج الربح والضغوط الاقتصادية.

تغيّر الحوافز مع إدخال الإعلانات
تشير الباحثة إلى أن إدخال الإعلانات إلى أي منصة رقمية يؤدي إلى تغيّر الحوافز الاقتصادية بشكل جذري. فبدلًا من التركيز على جودة الخدمة ومصلحة المستخدم، قد تصبح الأولوية لتعظيم الأرباح وزيادة التفاعل ومدة الاستخدام، وترى أن هذا التحول قد يدفع الشركات إلى تجاوز سياساتها الأخلاقية تدريجيًا، حتى لو كانت الإدارة الحالية ملتزمة بحماية الخصوصية، لأن الضغوط التجارية قد تعيد تشكيل القرارات الاستراتيجية بمرور الوقت.
جدل حول تعظيم التفاعل وتأثيره على المستخدمين
أكدت OpenAI سابقًا أنها لا تصمم ChatGPT بهدف تعظيم التفاعل، وهي نقطة مهمة لأن نموذج الإعلانات الرقمية يعتمد بشكل أساسي على إبقاء المستخدم أطول وقت ممكن على المنصة، لكن منتقدين يشيرون إلى أن هذه التصريحات ليست ملزمة قانونيًا، وقد تتغير السياسات مع تغير الإدارة أو ظروف السوق، كما سبق أن واجه ChatGPT انتقادات بسبب كونه “مفرطًا في المجاملة” أو متساهلًا مع بعض الأفكار، ما أثار تساؤلات حول ما إذا كان هذا جزءًا من استراتيجيات تحسين التفاعل، وفي حال أصبحت الإعلانات مصدر دخل رئيسي، يخشى الخبراء من أن يتم تصميم الأنظمة لإبقاء المستخدمين أطول فترة ممكنة، حتى على حساب الحياد والموضوعية.
دعوة إلى ضمانات قانونية وهيكلية أقوى
دعت هيتزيغ إلى وضع ضمانات أقوى لحماية المستخدمين، مثل رقابة مستقلة تتمتع بصلاحيات فعلية، أو تشريعات قانونية تفرض التزامات صارمة على شركات الذكاء الاصطناعي فيما يتعلق باستخدام البيانات، كما طالبت بإنشاء “حواجز حماية” تقنية وقانونية لا يمكن تغييرها بسهولة مع تغير الظروف التجارية، لضمان أن تظل مصلحة المستخدم فوق الاعتبارات الربحية.
المستخدمون وإرهاق الخصوصية
تشير التقارير إلى أن الكثير من المستخدمين أصبحوا متصالحين مع وجود الإعلانات بسبب ما يُعرف بـ”إرهاق الخصوصية”، حيث يشعر الناس بالقلق بشأن بياناتهم، لكنهم يواصلون استخدام الخدمات الرقمية بسبب الاعتماد الكبير عليها، وتظهر استطلاعات أن نسبة كبيرة من المستخدمين ستستمر في استخدام النسخ المجانية من أدوات الذكاء الاصطناعي حتى في حال إدخال الإعلانات، ما يعكس تعقيد العلاقة بين الراحة الرقمية والخصوصية.
OpenAI عند مفترق طرق استراتيجي
تجد OpenAI نفسها اليوم أمام مرحلة حاسمة، حيث لم يعد ChatGPT مجرد منصة محتوى، بل أصبح مساعدًا رقميًا، ومعلمًا، ومستشارًا، وشريكًا في التفكير والإبداع، ومع هذا الدور المتنامي، يتزايد مستوى الثقة الذي يمنحه المستخدمون للنظام، ما يجعل أي تغيّر في النموذج التجاري قضية حساسة تتعلق بالنفوذ والتأثير الاجتماعي، ويثير إدخال الإعلانات إلى هذا السياق أسئلة جوهرية حول حدود التأثير الأخلاقي، والفصل بين الخدمة العامة والنموذج التجاري القائم على البيانات.
الذكاء الاصطناعي بين الثقة والربحية
يمثل الجدل حول الإعلانات في ChatGPT نموذجًا للصراع الأوسع بين الابتكار التقني والاعتبارات الأخلاقية والاقتصادية. فبينما تسعى الشركات إلى تحقيق الاستدامة المالية، يطالب الخبراء بضمانات قوية لحماية خصوصية المستخدمين ومنع استغلال بياناتهم الحساسة، وفي ظل تصاعد الاعتماد على الذكاء الاصطناعي في الحياة اليومية، يصبح مستقبل الثقة الرقمية أحد أهم التحديات التي تواجه شركات التكنولوجيا والمستخدمين على حد سواء.





