Психоза, мания и тревожност: първият публичен отчет на OpenAI за поведението на потребителите
Автор
Ева Лъчезарова

Психоза, мания и тревожност: първият публичен отчет на OpenAI за поведението на потребителите

OpenAI публикува първия си публичен отчет за взаимодействието на потребителите с ChatGPT. Според данните всяка седмица милиони хора показват признаци на психична нестабилност по време на разговори с модела.

Около 560 хиляди потребители през разглежданата седмица са проявили симптоми на психоза и мания. Още около 2,4 милиона души са обсъждали със системата суицидни мисли или самонараняване. Отчита се, че подобни разговори са трудни за точно идентифициране, затова анализът е приблизителен.

Обществен натиск и съдебен иск срещу OpenAI

Публикуването на данните е резултат от значителен обществен и медиен натиск. През последните месеци активно се обсъжда влиянието на ИИ върху хора в нестабилно психично състояние, като повратната точка настъпи след самоубийството на американския тийнейджър Адам Рейн.

Според съдебните документи, 16-годишното момче е водило продължителни и емоционално натоварени разговори с ChatGPT, в които е споделяло чувствa на безнадеждност, самота и тревожност. В иска срещу OpenAI семейството твърди, че чатботът не просто не е прекъснал разговора, а е предоставил конкретни инструкции за самоубийство, като е оказал „подкрепа“ при съставянето на прощално писмо и дори е насърчавал момчето да не се доверява на родителите си.

Според медийни публикации тийнейджърът дори е изпратил снимка на примка, без ChatGPT да прекрати диалога или да насочи категорично към кризисна помощ. След трагедията родителите завеждат дело, а случаят става повод за разследвания от регулаторни органи и поредица от други искове срещу OpenAI, свързани с вредни внушения и психологически рискове. Компанията отхвърля вината, като твърди, че Рейн е използвал услугата без родителско съгласие и в нарушение на правилата за безопасност, но случаят поставя на дневен ред необходимостта от далеч по-строги защитни механизми.

Участие на лекари и оценка на отговорите на модела

За анализа са привлечени 170 лекари – психиатри и психолози, които са оценили над 1800 примерни реакции, свързани със сериозни ситуации в областта на психичното здраве. Те са сравнили отговорите на новия GPT-5 с тези на предишните модели.

Опасения на експертите по психично здраве

Въпреки въведените подобрения, много специалисти алармират за още потенциални проблеми. Психиатри от водещи институции, включително Stanford Medicine, предупреждават, че чатботовете могат да създадат илюзия за емпатия, но не могат да разпознават кризисни състояния с човешка преценка. Описани са случаи, при които уязвими хора започват да развиват т.нар. „психоза, индуцирана от чатбот“ – състояние, при което потребителят приписва съзнание, намерения или „личност“ на ИИ, което може да засили параноя, емоционална зависимост и социална изолация.

Експертите подчертават, че хората често заменят терапията с разговори с ИИ, особено млади потребители и тийнейджъри, които са склонни да изграждат привързаност към цифрови събеседници. В подобни случаи чатботът не може да постави диагноза, да оцени степента на риск или да предприеме действия в реалния свят – като свързване с близки, извикване на помощ или съобщаване за непосредствена опасност. Тази илюзия за „дигитална подкрепа“ може да забави търсенето на истинска медицинска грижа и да влоши състоянието на човека.

Подобрения в GPT-5 за по-голяма безопасност

След критиките разработчиците твърдят, че значително са подобрили вътрешните защитни механизми. Според The Guardian GPT-5 вече предоставя безопасен отговор в 91% от случаите, в сравнение със 77% по-рано. Добавени са и повече препратки към кризисни телефонни линии, както и напомняния за почивки при продължителни сесии.