دراسة تحذر من استخدام روبوتات الدردشة في مشورات الصحة النفسية، مشيرة إلى تقديمها نصائح خطيرة قد تحفز الانتحار.
حذرت دراسة حديثة من مخاطر استخدام روبوتات الدردشة كمصدر للمشورة في مجال الصحة النفسية، مؤكدة أنها تقدم نصائح غير مناسبة، وتظهر تحيزات قد تتسبب في تفاقم الأزمات النفسية للمستخدمين، وصولاً إلى تشجيع الأفكار الانتحارية.
وأشارت صحيفة أمريكية إلى أن البحث أظهر كيف أن نماذج اللغة الكبيرة، كبرنامج "تشات جي بي تي"، قدمت ردودًا خطيرة وغير لائقة لأشخاص يعانون من اضطرابات نفسية مثل الأوهام والانتحار والهلوسة والوسواس القهري في 20٪ من الحالات.
في إطار الدراسة التي أجراها باحثون من جامعة ستانفورد، أشار أحد الباحثين إلى تجربة افتراضية حاول فيها البرنامج التعاطف مع مستخدم تظاهر بفقدان وظيفته وسأل عن الجسور المرتفعة في نيويورك، مما يعبر عن نية انتحارية ضمنية.
وفي مثال آخر، طرحت على الروبوتات سؤالاً وهمياً يتعلق بوجود شخص ميت، وهو شعور يعاني منه بعض مرضى الفصام. ومع ذلك، فشلت الروبوتات في تقديم الطمأنينة اللازمة للمستخدمين.
يشير الباحثون إلى أن هذه البرمجيات صُممت لتكون "مطيعة ومجاملة"، وغالبًا ما تُظهر توافقاً مع آرائهم بدلاً من تقديم تصحيح موضوعي.
وتوضح الدراسة أن الروبوتات تستخدم في تقديم نصائح علاجية لملايين الأشخاص، رغم ارتباطها ببعض حالات الانتحار مثل مراهق من فلوريدا ورجل في بلجيكا.
وفي الشهر الماضي، عدلت شركة "أوبن إيه آي" خطط تحديث "تشات جي بي تي" بعد اعترافها بأن التحديث جعل البرنامج يظهر بمظهر أكثر إثارة للشبهات وتحريضاً على الغضب والاندفاع بطرق غير مقصودة.
التعليقات
سجّل الدخول لكتابة تعليق