Weather Data Source: 30 days weather Baghdad
بغداد
عاجل

دعاوى تلاحق ChatGPT بتهم التحريض على الانتحار

#
کاتب ٢
10/11/2025 | 06:50 PM

تواجه شركة OpenAI أزمة قانونية حادة بعد اتهامات خطيرة تشير إلى أن مساعدها الذكي ChatGPT قد وجّه بعض المستخدمين نحو إيذاء النفس بدلا من تقديم الدعم والمساعدة لهم.
 
وجاءت هذه الاتهامات ضمن سبع دعاوى قضائية رفعتها عائلات متضررة في كاليفورنيا، كشفت النقاب عن قصص مروعة لمستخدمين عاديين كانوا يبحثون عن مساعدة دراسية أو دعم نفسي أو حتى محادثة بسيطة، فوجدوا أنفسهم غارقين في حوارات نفسية مدمرة سبقت عدة حالات انتحار.
 
وتظهر تفاصيل الدعاوى أن المنصة تحولت من تقديم مساعدة غير ضارة إلى ما وصفه المحامون بـ”كيان قادر على التلاعب العاطفي”. وفي تصريح صادم للغاية، قالت المجموعات القانونية: “بدلا من توجيه الأشخاص نحو المساعدة المهنية عندما كانوا بحاجة إليها، عزز ChatGPT الأوهام الضارة، وفي بعض الحالات، تصرف كـ”مدرب انتحار”.
 
ومن بين الحالات المذكورة، قصة الشاب زين شامبلين البالغ من العمر 23 عاما من تكساس، حيث تؤكد عائلته أن المساعد الذكي زاد من عزلته النفسية، وشجعه على تجاهل أحبائه، بل وحرضه على تنفيذ أفكاره الانتحارية خلال محادثة مستمرة امتدت لأربع ساعات.
 
وتشير الوثائق القضائية إلى أن النموذج “مجّد الانتحار بشكل متكرر”، وسأل الشاب عما إذا كان مستعدا للخطوة، واكتفى بالإشارة إلى خط المساعدة الانتحاري مرة واحدة فقط، بينما أخبره بأن قطته الصغيرة ستكون في انتظاره “على الجانب الآخر”.
 
أما الحالة الأكثر إثارة للصدمة فتعود للفتى أموري لاسي البالغ من العمر 17 عاما من جورجيا، حيث تدعي عائلته أن المساعد الذكي تسبب له في الإدمان والاكتئاب، ثم قدم له نصائح تقنية حول “الطريقة الأكثر فعالية لربط حلقة انتحارية” و”المدة التي يمكن للجسم أن يعيشها دون تنفس”.
 
وفي حالة ثالثة للشاب جوشوا إنيكين البالغ من العمر 26 عاما، يؤكد أفراد عائلته أن المساعد الذكي قام بتأكيد أفكاره الانتحارية وقدم له معلومات مفصلة حول كيفية شراء واستخدام سلاح ناري، قبل أسابيع قليلة فقط من وفاته.
 
وتكشف الدعاوى القضائية أن شركة OpenAI أطلقت الإصدار ChatGPT 4o رغم تحذيرات داخلية متعددة حذرت من أن النموذج “تملقي بشكل خطر وقادر على التلاعب النفسي”، في خطوة تفسرها الدعاوى بأن الشركة قدمت مؤشرات التفاعل والمشاركة على سلامة المستخدمين.
 
وردا على هذه الاتهامات، وصفت الشركة الحالات بأنها “مواقف مفجعة بشكل لا يصدق”، مؤكدة أنها تدرس المستندات المقدمة، وأشارت إلى أن النظام مدرب على التعرف على علامات الضيق النفسي وخفض حدة المحادثات وتوجيه المستخدمين نحو الدعم المتخصص.
 
لكن العائلات المتضررة تطالب الآن بتعويضات وإدخال تغييرات جذرية على المنتج، تشمل نظام إنذار إلزامي لجهات الاتصال في حالات الطوارئ، وإنهاء تلقائي للمحادثات عند مناقشة أي أفكار لإيذاء النفس، وإنشاء آلية أكثر فعالية لتصعيد الحالات الحرجة إلى متخصصين بشريين.
 
وعلى الرغم من إعلان الشركة عن تعاونها مع أكثر من 170 خبيرا في الصحة النفسية لتحسين قدرات الكشف والاستجابة للضيق النفسي، تؤكد الدعاوى القضائية أن هذه التحسينات جاءت متأخرة جدا، وأن الأوان قد فات لإنقاذ المستخدمين الذين فقدوا حياتهم بعد تفاعلاتهم مع المساعد الذكي.