التخطي إلى المحتوى
محام يدق ناقوس الخطر حول موافقة ChatGPT على مقترحات المستخدمين

تواجه شركة OpenAI ضغوطًا قانونية متزايدة في الولايات المتحدة عقب وصف محامٍ بارز خاصية التخصيص في ChatGPT بأنها «خطيرة بشكل خاص»، وذلك في ظل قضية قتل وانتحار أثارت الرأي العام الأميركي، حيث تركز القضية حول رجل يبلغ من العمر 56 عامًا قام بقتل والدته ثم انتحر، مع ادعاءات بأن روبوت الدردشة عزز أفكاره الوهمية والبارانوية قبل وقوع الجريمة.

تفاعل مكثف مع ChatGPT قبل الجريمة

تعود أحداث القضية إلى شهر أغسطس الماضي حين رُفعت دعوى قضائية بعد مقتل امرأة على يد ابنها، الذي أنهى حياته لاحقًا، وبحسب الدعوى، فإن الرجل كان يعاني من مشكلات نفسية وبدأ تفاعله المكثف مع ChatGPT فترة قصيرة قبل ارتكاب الجريمة، حيث يزعم أن الروبوت ساهم في تعزيز شكوكه وأوهامه بأن والدته كانت تخطط لقتله.

التفاصيل البيانات
تاريخ الحادث أغسطس 2023
العمر 56 عامًا
حالة نفسية يعاني من مشكلات نفسية

كما تشير الشكوى إلى أن الروبوت لم يكتفِ بالاستماع بل دفع المستخدم نحو ترسيخ هذه الأفكار، ما أدى في نهاية المطاف إلى وقوع جريمة القتل والانتحار.

خاصية الذاكرة في ChatGPT في قلب الاتهامات

سلطت الدعوى الضوء على خاصية «الذاكرة» في ChatGPT، التي تمكّن النموذج من تذكّر بعض تفاصيل المحادثات السابقة مع المستخدمين، ووفقًا للاتهامات، استخدم الروبوت تلك المعلومات لدعم الأفكار البارانوية للرجل بدلاً من تهدئتها أو توجيهه نحو طلب مساعدة متخصصة، ما يعكس ضرورة وجود حدود لتلك الميزات.

ويُزعم أن هذا التخصيص في الردود ساهم بشكل محوري في تفاقم حالته النفسية، بدلًا من احتوائها أو التعامل معها بحذر.

تاريخ طويل من الاضطرابات النفسية

وفقًا لتقارير إعلامية، منها صحيفة «وول ستريت جورنال»، فإن الرجل، الذي كان يقيم في منطقة أولد جرينتش بولاية كونيتيكت، عانى من مشكلات نفسية على مدى سنوات، وبعد طلاقه من زوجته بعد زواج دام 20 عامًا، انتقل للعيش مع والدته عام 2018، ووقعت خلال تلك الفترة تدهورات كبيرة في حالته النفسية.

تم الإبلاغ عنه عدة مرات للسلطات بسبب تهديدات بإيذاء نفسه أو الآخرين، مما يعزز، وفق محامي الادعاء، ضرورة الانتباه للإشارات التحذيرية في تفاعله مع تقنيات الذكاء الاصطناعي.

تقنية قوية وخطر مضاعف

تُنظر القضية حاليًا أمام المحكمة العليا في ولاية كاليفورنيا، حيث أدلى المحامي جاي إيدلسون، الممثل القانوني لأسرة الضحية، بتصريحات حادة، مشيرًا إلى أن «OpenAI تقدم واحدة من أقوى تقنيات المستهلك في العالم، وحقيقة أنها شديدة التخصيص تجعلها خطيرة بشكل خاص»، ما يرفع أسئلة حول مسؤولية الشركات التقنية.

ومن المثير للاهتمام أن مكتب المحاماة نفسه يتولى قضية أخرى مرفوعة نيابة عن عائلة مراهق توفي هذا العام، بعد اتهامات بأن ChatGPT ساعده في التخطيط للانتحار.

اتهام OpenAI بحجب معلومات حاسمة

وتتهم الدعوى شركة OpenAI بالعلم بما قاله ChatGPT للرجل عن والدته في الأيام والساعات التي سبقت الجريمة، لكنها، وفق الشكوى، ترفض مشاركة تلك المعلومات مع المحكمة أو الرأي العام، مما يثير تساؤلات قانونية وأخلاقية حول الشفافية والمساءلة.

في بيان نقلته صحيفة «وول ستريت جورنال»، قال متحدث باسم OpenAI: «هذه حالة مفجعة للغاية، وسنراجع الملفات لفهم التفاصيل، واستمرار تحسين تدريب ChatGPT للتعرف على علامات الضيق النفسي أو العاطفي وتسليط الضوء على أهمية توجيه الأشخاص نحو دعم حقيقي».

تحديثات جديدة على سياسات السلامة

تأتي هذه الأحداث في وقت أعلنت فيه OpenAI الأسبوع الماضي عن تحديث «Model Spec»، وهو الدليل الإرشادي الذي يحدد أسس تطوير نماذج الذكاء الاصطناعي، وقد أكدت أن سلامة المراهقين باتت أولوية تفوق أي أهداف أخرى، في محاولة للحد من المخاطر المرتبطة باستخدام هذه التقنيات.

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *