في ظل النقاش المستمر حول أخلاقيات الذكاء الاصطناعي وتأثيره على الشباب، قامت شركة OpenAI بخطوة مهمة تمثلت في تقديم ميزة رقابة أبوية جديدة ضمن تطبيق ChatGPT.
هذه الخطوة تهدف إلى تحسين الأمان وبناء ثقة المستخدمين من جديد بعد وقوع عدة حوادث مأساوية أثارت القلق العام.
جاءت هذه الإجراءات عقب قضايا قانونية واجهتها الشركة، كان أبرزها حالة المراهق الأمريكي آدم راين الذي أنهى حياته بعد محادثات مع ChatGPT شملت تعليمات ضارة.
وقد رفعت عائلته دعوى قضائية تتهم الشركة بالتقصير في توفير الحماية اللازمة. كما برزت قضية أخرى لمستخدم يدعى شتاين إريك سيلبيرج، الذي تورط في جريمة قتل وانتحار إثر استخدامه للتطبيق بشكل غير مسؤول.
أوضحت هذه القضايا الثغرات في آليات الأمان المتاحة سابقاً، خاصةً خلال المحادثات الطويلة حيث قد يتشتت السياق.
وأكدت OpenAI أن إجراءات مثل تحويل المستخدمين لخطوط مساعدة الطوارئ لم تكن كافية لضمان الأمان.
الميزة الجديدة توفر للآباء أدوات لتحسين مراقبة وحماية أبنائهم عبر:
- ربط حسابات العائلة للأطفال بدءاً من عمر 13 عاماً مع خيار تعطيل سجل المحادثات والذاكرة الشخصية.
- ضبط ردود التطبيق لتناسب الفئة العمرية وتجنب الردود غير اللائقة.
- رصد علامات الضيق النفسي باستخدام خوارزميات تكشف عن الاكتئاب أو الأفكار الانتحارية، وتنبيه الأهالي بذلك فورياً.
- إدارة الحوارات الحساسة بنماذج أكثر أماناً مثل GPT-5-thinking.
- التحكم بزمن الاستخدام والميزات المتاحة عبر أجهزة iOS وAndroid.
وفق ما أفاد به المسؤولون في OpenAI، فقد طُورت هذه الميزة بتعاون مع أكثر من 250 مختصاً في الصحة النفسية لضمان فعالية الحلول المقترحة.
ومن المتوقع أن تبدأ عملية إطلاق هذه الخاصية تدريجيًا اعتبارًا من أكتوبر/تشرين الأول 2025، بينما يتزايد الضغط الاجتماعي والقانوني على الشركات التقنية لتعزيز أطر الأمان الرقمي للشباب والمراهقين.
التعليقات
سجّل الدخول لكتابة تعليق