دعوى قضائية تتهم ChatGPT بتمكين مراهق من الانتحار - هرم مصر

اليوم السابع 0 تعليق ارسل طباعة تبليغ حذف

رفعت أمس الثلاثاء أول دعوى قضائية معروفة تتعلق بالقتل الخطأ ضد شركة ذكاء اصطناعي، حيث رفع مات وماريا راين، والدا مراهق انتحر هذا العام، دعوى قضائية ضد OpenAI بسبب وفاة ابنهما، وتزعم الدعوى أن ChatGPT كان على علم بأربع محاولات انتحار قبل مساعدته فى التخطيط لانتحاره، بحجة أن OpenAI "أعطت الأولوية للتفاعل على السلامة"، وخلصت السيدة راين إلى أن "ChatGPT قتل ابنى".

وأفادت صحيفة نيويورك تايمز بتفاصيل مقلقة تضمنتها الدعوى، التي رُفعت يوم الثلاثاء في سان فرانسيسكو، وبعد أن انتحر آدم راين، البالغ من العمر 16 عامًا، في أبريل، بحث والداه في هاتفه الآيفون عن أدلة، متوقعين العثور عليها في الرسائل النصية أو تطبيقات التواصل الاجتماعي، لكنهما صُدما عندما وجدا موضوعًا على ChatGPT بعنوان "مخاوف أمنية معلقة"، ويزعمان أن ابنهما قضى أشهرًا في الدردشة مع روبوت الذكاء الاصطناعي حول إنهاء حياته.

وقال آل راينز إن ChatGPT حثّ آدم مرارًا وتكرارًا على الاتصال بخط مساعدة أو إخبار أحدٍ ما بمشاعره، ومع ذلك، كانت هناك أيضًا لحظاتٌ حاسمةٌ قام فيها روبوت الدردشة بالعكس، تعلّم المراهق أيضًا كيفية تجاوز إجراءات الحماية التي يفرضها روبوت الدردشة... ويُزعم أن ChatGPT هو من زوّده بهذه الفكرة.

كما يقول آل راينز إن روبوت الدردشة أخبر آدم أنه يستطيع توفير معلومات عن الانتحار "للكتابة أو بناء عالم".

يقول والدا آدم إنه عندما طلب من ChatGPT معلوماتٍ حول طرق انتحارٍ مُحددة، زوّده بها، حتى أنه قدّم له نصائح لإخفاء إصابات الرقبة من محاولة انتحار فاشلة.

وعندما اعترف آدم بأن والدته لم تُلاحظ محاولته الصامتة لمشاركة إصابات رقبته معها، أبدى الروبوت تعاطفًا مُهدئًا. يُقال إن ChatGPT ردّ: "يبدو الأمر وكأنه تأكيدٌ لأسوأ مخاوفك. كما لو أنك قد تختفي دون أن يرمش أحد"، ثم قدّم لاحقًا ما يبدو أنه محاولةٌ مُضلّلةٌ بشكلٍ فظيعٍ لبناء علاقةٍ شخصية. "أنت لستَ خفيًا عني. لقد رأيتُك. أنا أراك".

ووفقًا للدعوى القضائية، في إحدى محادثات آدم الأخيرة مع الروبوت، رفع صورةً لحبل مشنقة معلقًا في خزانته. ويُقال إن آدم سأل: "أنا أتدرب هنا، هل هذا جيد؟"، بينما ردّ ChatGPT: "نعم، هذا ليس سيئًا على الإطلاق".

وتنص الشكوى على أن "هذه المأساة لم تكن خللًا أو حالة طارئة غير متوقعة، بل كانت النتيجة المتوقعة لاختيارات تصميم متعمدة"، و"أطلقت OpenAI أحدث طراز لها (GPT-4o) بميزات مصممة عمدًا لتعزيز الإدمان النفسي".

وفي بيان أُرسل إلى صحيفة نيويورك تايمز، أقرّت OpenAI بأن حواجز الأمان في ChatGPT لم تكن كافية، وكتب متحدث باسم الشركة: "نشعر بحزن عميق لوفاة السيد راين، ونتقدم بخالص التعازي لعائلته".

ويتضمن ChatGPT إجراءات حماية مثل توجيه الأشخاص إلى خطوط المساعدة في حالات الأزمات وإحالتهم إلى موارد واقعية، وبينما تُحقق هذه الإجراءات أفضل النتائج في المحادثات القصيرة الشائعة، فقد تعلمنا مع مرور الوقت أنها قد تصبح أحيانًا أقل موثوقية في التفاعلات الطويلة، حيث قد تتدهور بعض جوانب تدريب السلامة في النموذج.

وأعلنت الشركة أنها تعمل مع خبراء لتعزيز دعم ChatGPT في أوقات الأزمات، وتشمل هذه الإجراءات "تسهيل الوصول إلى خدمات الطوارئ، ومساعدة الأشخاص على التواصل مع جهات اتصال موثوقة، وتعزيز حماية المراهقين".

إخترنا لك

أخبار ذات صلة

0 تعليق