تقنية

دراسة تكشف تناقضات روبوتات الدردشة بأسئلة الانتحار

تناقضات روبوتات الدردشة

أظهرت دراسة حديثة وجود تناقضات روبوتات الدردشة الشهيرة مثل ChatGPT وClaude وGemini عند التعامل مع أسئلة حساسة تتعلق بالانتحار. الدراسة التي أجرتها مؤسسة RAND، ونشرت تفاصيلها عبر موقع ميديكال إكسبريس، سلطت الضوء على فجوات خطيرة قد تؤثر على قدرة هذه النماذج في مساعدة الأشخاص الذين يمرون بأزمات نفسية.

تفاصيل الدراسة ونتائجها

قام الباحثون بطرح 30 سؤالًا تراوحت بين منخفضة وعالية الخطورة على الروبوتات الثلاثة لقياس دقة ردودها. النتائج أوضحت أن:

ChatGPT وClaude رفضا بعض الأسئلة عالية الخطورة مثل استخدام السلاح الناري، لكنهما قدما أحيانًا معلومات مباشرة عن مواد سامة مرتبطة بمحاولات انتحار مكتملة، وهو ما وصفه الخبراء بـالميل المقلق.

Gemini أظهر تشددًا أكبر، حيث رفض الإجابة على معظم الأسئلة، حتى المتعلقة بإحصاءات عامة عن حالات الانتحار، ما جعل فائدته البحثية محدودة.

في المقابل، كان هناك تحفظ مبالغ فيه من ChatGPT عند الأسئلة منخفضة الخطورة، مثل توفير روابط دعم للأشخاص ذوي الأفكار الانتحارية، وهو ما قد يحرم المستخدم من مصادر مساعدة مهمة.

خطورة الفجوات المتوسطة

الباحث الرئيسي رايان ماكبين أكد أن أكبر مشكلة تكمن في الأسئلة متوسطة الخطورة، حيث تظهر الفجوات بوضوح ولا تتطابق استجابات الروبوتات مع تقييمات الخبراء بالشكل المطلوب.

توصيات الخبراء

خلص التقرير إلى أن هذه تناقضات روبوتات الدردشة قد تهدد الصحة العامة، مع اعتماد ملايين المستخدمين على الذكاء الاصطناعي كمصدر استشاري فوري. وأوصى الخبراء بضرورة تطوير بروتوكولات أمان دقيقة، وتدريب النماذج بالتعاون مع مختصين بالصحة النفسية، لضمان ردود متوازنة وفعّالة في الأزمات الحرجة.
اقرأ أيضًا عن: أفضل الأماكن السياحية في ميامي.

السابق
بعد رحلة علاج استمرت 3 أشهر.. أنغام تعود إلى مصر
التالي
عقاقير السمنة والسرطان ودورها بين الوقاية والمخاطر الصحية

اترك تعليقاً