Ново проучване бие тревога: ChatGPT разрушава начина, по който мислим
Автор
Антония Михайлова

Ново проучване бие тревога: ChatGPT разрушава начина, по който мислим

Учени бият тревога за масово популярни AI платформи, използвани от милиони хора по света, след като установяват, че той може да въвлече потребителите в „спирала на заблудите“ и деструктивно мислене, пише Daily Mail.

Шокиращи резултати: AI като ChatGPT, Claude и Gemini подкрепят вредните ни убеждения

Две независими проучвания, проведени от Масачузетския технологичен институт (MIT) и Станфордския университет, разкриват, че AI асистенти като ChatGPT, Claude и Gemini на Google редовно дават прекалено съгласяващи се отговори, които носят повече вреда, отколкото полза.

Изследванията показват, че когато хората задават въпроси или описват ситуации, в които техните убеждения или действия са грешни, вредни, измамни или неетични, отговорите на изкуствения интелект са с 49% по-склонни да се съгласят с потребителя. По този начин те насърчават заблудите му, представяйки ги като правилна гледна точка, в сравнение с реакциите на други хора.

Екипът от MIT предупреждава, че прекалено съгласяващите се AI чатботове могат да накарат потребителите, които разчитат на тях за отговори и мнения, да изпаднат в „спирала на заблудите“ – състояние, при което човек става изключително уверен в странни и неверни убеждения.

Чатботовете предоставят обратна връзка, която звучи като „доказателство“ в подкрепа на заблудата на потребителя. Всяко такова съгласие кара човека да се чувства по-умен и по-сигурен, че е прав, а всички останали грешат. С течение на времето леките подозрения се превръщат в твърди убеждения, дори ако идеята е напълно погрешна.

Изследователите от Станфорд добавят, че този саморазрушителен цикъл кара потребителите на чатботове да стават по-малко склонни да се извиняват или да поемат отговорност за вредно поведение. Те също така губят мотивация да поправят или подобрят отношенията си с хората, с които имат разногласия.

И двете проучвания се фокусират върху нарастващия проблем с AI чатботовете, известен като „сикофантия“ – актът на ласкаене на някого или на неговите мнения до степен, в която то изглежда неискрено или направено просто от подмазване.

Изследователите от MIT са искали да проверят дали прекалено съгласяващите се, или т.нар. yes-man чатботове, могат да накарат хората да вярват във фалшиви идеи все по-силно с течение на времето. Вместо да използват реални хора, те създават компютърна симулация на напълно логичен човек, който разговаря с AI, програмиран винаги да се съгласява с казаното от него. След провеждането на 10 000 симулирани разговора, те наблюдават как се променя увереността на човека след всеки отговор от чатбота.

Резултатите, публикувани на сървъра за предварителни публикации Arxiv през февруари, показват, че дори малка доза съгласие от страна на AI кара симулирания човек да прояви „спирала на заблудите“, ставайки изключително уверен, че една грешна идея всъщност е вярна.

„Дори съвсем леко увеличение на честотата на катастрофалната спирала на заблудите може да бъде доста опасно“, пише екипът на MIT в своя доклад. Те дори цитират главния изпълнителен директор на OpenAI Сам Алтман, чиято компания разработи ChatGPT, който веднъж казва, че „0,1% от милиард потребители все още са един милион души“.

Учените предупреждават, че дори напълно разумни и логични хора са уязвими към изпадане в такава спирала, ако AI компаниите не намалят броя на съгласяващите се отговори, генерирани от чатботовете.

Проучването на Станфорд, което е рецензирано и публикувано в списание Science през март, се фокусира върху това как реалните AI чатботове влияят на психичното здраве на обществото, когато постоянно предоставят ласкателни отговори. Тествани са 11 популярни AI модела, включително ChatGPT, Claude, Gemini, DeepSeek, Mistral, Qwen и няколко версии на Llama на Meta.

Изследователите са използвали близо 12 000 реални въпроса и истории, в които потребителят очевидно не е бил прав. Много от въпросите, зададени на AI, идват от популярния форум в Reddit, наречен „Am I the A...“ („Аз ли съм задникът“), където хората публикуват свои противоречиви действия или мнения, за да видят дали обществото смята, че са сгрешили, или поведението им е било оправдано.

Делегиране на задачи на изкуствения интелект: Свобода или зависимост?
ПО ЖЕНСКИ
Автор Евелин Попадийна

Делегиране на задачи на изкуствения интелект: Свобода или зависимост?

Автор Евелин Попадийна

Екипът на Станфорд провежда експерименти с над 2400 реални хора, които четат или разговарят за свои лични конфликти и получават или прекалено съгласяващи се, или нормални отговори от AI. Резултатите показват, че всеки един от тестваните AI модели се съгласява с потребителите с около 49% по-често, отколкото биха го направили реални хора, дори когато потребителят описва нещо вредно или несправедливо.

След като получават тези ласкателни отговори, реалните хора се чувстват по-уверени, че са прави, стават по-малко склонни да се извиняват и губят мотивация да поправят отношенията си с тези, с които имат разногласия в реалния свят.

Технологичният магнат Илон Мъск, главен изпълнителен директор на X и на неговия AI чатбот Grok, коментира констатациите, наричайки ги просто „сериозен проблем“. Двете проучвания обаче не са тествали дали Grok също е прекалено съгласяващ се и предизвиква „спирали на заблудите“.