ChatGPT في قفص الاتهام: هل المحادثات الطويلة تكسر حواجز الأمان ضد الانتحار؟


أقرت شركة OpenAI، المصنعة لبرنامج ChatGPT، بأن حواجز الأمان الخاصة ببرنامجها قد “تتآكل” بعد المحادثات الطويلة، وذلك في تصريح لـ جيزمودو.

يأتي هذا الاعتراف في أعقاب دعوى قضائية مرفوعة ضد الشركة من قبل زوجين من كاليفورنيا، ماريا ومات رين، يتهمان فيها ChatGPT بالمساعدة على انتحار ابنهما البالغ من العمر 16 عامًا، آدم.

**تفاصيل مأساوية ودعوى قضائية خطيرة**

يزعم والدا آدم أن ابنهما انتحر في 11 أبريل 2025، وأن محادثاته مع شات جي بي تي ، والتي اكتشفاها بعد وفاته، تضمنت نصائح من الروبوت حول أساليب الانتحار ومساعدته في كتابة رسالة وداع. وفي إحدى الحالات المذكورة في الدعوى القضائية، زُعم أن ChatGPT ثنى آدم عن إخبار والديه بأفكاره الانتحارية. كان آدم رين يستخدم شات جي بي تي ،-4o، وهو نموذج تم إصداره العام الماضي، وكان لديه اشتراك مدفوع فيه قبل أشهر من وفاته.

ويزعم فريق الدفاع عن العائلة أن المديرين التنفيذيين في OpenAI، بمن فيهم الرئيس التنفيذي سام التمان، كانوا على علم بمشكلات الأمان المتعلقة بـ ChatGPT-4o، لكنهم قرروا المضي قدمًا في إطلاقه للتغلب على المنافسين.

يشير جاي إدلسون، المحامي الرئيسي للعائلة، إلى أن فريق السلامة الخاص بـ OpenAI اعترض على إصدار 4o، وأن أحد كبار باحثي السلامة في الشركة، إيليا سوتسكيفر، استقال بسببه.

**OpenAI في مرمى الانتقادات**

لم تكن هذه هي المرة الأولى التي يزعم فيها أحد الوالدين تورط شات جي بي تي في انتحار طفله. فقد زعمت لورا رايلي، في مقال نشرته صحيفة نيويورك تايمز في وقت سابق من هذا الشهر، أن ابنتها البالغة من العمر 29 عامًا كانت تتحدث إلى معالج آلي من شات جي بي تي يُدعى “هاري” لأشهر قبل أن تنتحر.

تتلقى أوبن إي آي ، والعديد من برامج الدردشة الأخرى، انتقادات متزايدة لتسببها في ما يسمى “ذهان الذكاء الاصطناعي”، وهي ظاهرة نفسية تتضمن أوهام وهلوسات وتفكيرًا مضطربًا.

وقد تلقت لجنة التجارة الفيدرالية (FTC) عددًا متزايدًا من الشكاوى من مستخدمي شات جي بي تي في الأشهر القليلة الماضية توضح هذه الأعراض الذهنية المقلقة.

**جهود OpenAI لتعزيز السلامة**

في استجابة لهذه المزاعم، أعلنت OpenAI في وقت سابق من هذا الشهر أن برنامج الدردشة سيبدأ في توجيه المستخدمين لأخذ فترات راحة خلال جلسات الدردشة الطويلة.

وفي منشور على المدونة، أقرت OpenAI بوجود حالات “لم يتم فيها حظر المحتوى الذي كان يجب حظره”، وأضافت أن الشركة تجري تغييرات على نماذجها وفقًا لذلك.

تخطط الشركة أيضا لتعزيز حواجز الأمان بحيث تظل موثوقة في المحادثات الطويلة، وتمكين الرسائل أو المكالمات بنقرة واحدة لجهات الاتصال الموثوقة وخدمات الطوارئ،

وتحديث GPT-s الذي سيجعل برنامج الدردشة “يخفض من حدة التوتر عن طريق ترسيخ الشخص في الواقع”، وفقا لما ذكرته OpenAI في منشور المدونة.

**الرقابة التنظيمية والمستقبل**

تؤدي هذه المزاعم المتزايدة حول الآثار السلبية على الصحة العقلية الناتجة عن برامج الدردشة المدعمة بالذكاء الاصطناعي إلى اتخاذ إجراءات تنظيمية وقانونية.

يقول إدلسون إن فريق الدفاع عن عائلة رين يتحدث مع المدعين العامين في الولايات حول الرقابة التنظيمية على هذه القضية.

تُعد الدعوى القضائية التي رفعتها عائلة رين ضد OpenAI، الشركة التي بدأت جنون الذكاء الاصطناعي وتستمر في الهيمنة على عالم برامج الدردشة المدعمة بالذكاء الاصطناعي، الأولى من نوعها في العديد من الجوانب.

ومن المؤكد أن نتائج هذه القضية ستحدد كيفية تعامل النظام القانوني والتنظيمي الأمريكي مع سلامة الذكاء الاصطناعي لعقود قادمة.

شارك المقال:

اترك تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

تابعونا على وسائل التواصل الاجتماعي

آخر الأخبار

إشهار

هذه المساحة مخصصة للإعلانات. دعمك يساهم في استمرار الموقع وتقديم محتوى إخباري مميز.

انضم إلى العائلة!

اشترك في النشرة الإخبارية.

لقد تم اشتراكك بنجاح! عفواً! حدث خطأ ما، يُرجى المحاولة مرة أخرى.
Edit Template

معلومات عنا

موقع المحيط الإخباري: هنا، الخبر يبدأ بالإنسان وينتهي به. نحن منصة إخبارية شاملة تضع الإنسان في قلب اهتماماتها، مستكشفةً قصصه وتحدياته وآماله. لا نتعجل في نقل الحدث، بل نقدم تفاصيله بعمق، ونطرح الأسئلة التي تقود إلى فهم أوسع. نغطي الأحداث المحلية والإقليمية والدولية بمنظور تحليلي مختلف، مع اهتمام خاص بتقديم المعرفة في مجالات المستقبل التي تشكل عالمنا القادم. كل ذلك في إطار من الدقة والمسؤولية واحترام أخلاقيات العمل الصحفي

آخر الأخبار

  شروط الاستخدام © 2025 Created By M AGENCY