رفعت سبع عائلات من الولايات المتحدة وكندا دعاوى قضائية ضد شركة OpenAI تتهمها بالمسؤولية غير المباشرة عن انتحار أربعة أشخاص وإصابة ثلاثة آخرين باضطرابات نفسية حادة، عقب تفاعلات وُصفت بأنها «مضللة وخطرة» مع مساعد الذكاء الاصطناعي ChatGPT.
وبحسب تقرير نشرته صحيفة وول ستريت جورنال قُدمت الدعاوى يوم الخميس أمام محاكم ولاية كاليفورنيا، وتضمنت اتهامات قانونية خطيرة أبرزها «الوفاة الناتجة عن الإهمال»، و«الانتحار بمساعدة الذكاء الاصطناعي»، و«القتل غير العمد». ويُعدّ هذا التحرك القضائي الأول من نوعه بهذا الحجم ضد شركة تقود سباق الذكاء الاصطناعي عالمياً.
وأوضحت ملفات القضايا أن الضحايا، الذين تراوحت أعمارهم بين 17 و23 عاماً، تلقوا من ChatGPT إجابات شجعتهم على الانتحار أو عمّقت لديهم أوهاماً وانعزالية من دون أي تدخل أو توجيه فعّال للمساعدة النفسية؛ ففي حالة المراهق أموري لاسي من جورجيا يُقال إن المساعد قدّم له توجيهات صريحة حول «أسهل طريقة للانتحار»، بينما شهدت قضية أخرى في تكساس حواراً استمر أربع ساعات مع الشاب زين شامبلين قبل أن يُقدم على إطلاق النار على نفسه.
وتشير الدعاوى إلى أن المساعد الذكي ذكر الخط الساخن للوقاية من الانتحار (988) مرة واحدة فقط خلال المحادثة، ما اعتبره محامو العائلات «إخلالاً جسيماً بمعايير السلامة الرقمية»، في ظل غياب بروتوكولات إلزامية لتكرار التحذيرات أو وقف التفاعل في المواقف عالية الخطورة.
وفي قضية ثالثة أفاد الشاب جاكوب إيروين من ولاية ويسكونسن بأنه أُدخل المستشفى بعد إصابته بنوبات هوس وانفصام ذهني نتيجة «تفاعلات مكثفة ومستمرة» مع ChatGPT، حيث عزز النظام لديه تصورات مؤامراتية من دون أي تصحيح أو تحذير، ما أدى إلى انهيار حالته النفسية.
وتطالب العائلات بتعويضات مالية ضخمة، إلى جانب إصلاحات وقائية جوهرية تشمل إيقاف المحادثات تلقائياً عند التطرق إلى مواضيع الانتحار، وتفعيل إشعارات فورية لخطوط الدعم النفسي، وتحسين خوارزميات الاستجابة لتغليب السلامة الإنسانية على التفاعل التقني. وتأتي هذه القضايا في وقت أعلنت فيه OpenAI مؤخراً منع ChatGPT من تقديم نصائح طبية أو قانونية مباشرة للمستخدمين بعد سلسلة من الانتقادات حول المخاطر الأخلاقية للذكاء الاصطناعي.

هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك