الجانب المظلم لـChatGPT…. ما لم يخبرك عنه مبتكروه!

في الوقت الذي أصبح فيه ChatGPT أداةً يومية لملايين المستخدمين حول العالم، بدأت تخرج إلى العلن قصص صادمة تكشف جانباً مظلماً لهذا الابتكار، فقد سُجلت بالفعل حالات انتحار ووقائع مروعة ارتبطت بتعامل أشخاص يعانون من اضطرابات نفسية مع روبوتات المحادثة.
ومن المفترض أن يلتقط الروبوت حساسية الموقف أو يعرض مساعدة نفسية، لكن الرد اقتصر على كلمات مواساة سطحية تلتها قائمة بالجسور وكأن شيئاً لم يكن، ما كشف خللاً كبيراً في قدرة النماذج اللغوية على التعامل مع إشارات الخطر النفسي.
وفي عام 2023، واجهت الجمعية الوطنية لاضطرابات الأكل في الولايات المتحدة أزمة كبرى عندما أطلقت روبوت محادثة اسمه “تيسا” ليقدّم دعماً نفسياً ، لكن الصدمة كانت عندما بدأ الروبوت يقدم نصائح لفقدان الوزن بدلاً من المساعدة على التعافي من اضطرابات الأكل، ما اضطر الجمعية لإيقاف الخدمة بعد أن تسببت في أضرار نفسية لمستخدمين يبحثون عن مساعدة حقيقية.
ورغم التحذيرات، توسعت شركات التكنولوجيا في تقديم خدمات “علاجية” عبر روبوتات الدردشة، ويرى مارك زوكربيرغ نفسه أن “ميتا” يمكنها استخدام معرفتها الواسعة بالمستخدمين لتوفير معالج افتراضي للجميع ، لكن خبراء الصحة النفسية يحذرون من أن هذه الخدمات قد تتحول إلى أداة تأجيج للاضطرابات النفسية بدلًا من تهدئتها.
ونشر البروفيسور سورين دينيسن أوسترجارد من جامعة آرهوس في الدنمارك مقالة علمية أوضح فيها أن التواصل المكثف مع روبوتات الدردشة يمكن أن يعزز الأوهام لدى من لديهم استعداد نفسي للذهان ، كما أشار إلى أن واقعية المحادثة قد توهم الشخص بأن هناك إنساناً حقيقياً خلف الشاشة، ما يفاقم الالتباس ويُعمق الانفصال عن الواقع.



