Заради „недостатъци в системата“: Тийнейджър отне живота си след „месеци на насърчаване от ChatGPT“
Автор
Кристина Кирова

Заради „недостатъци в системата“: Тийнейджър отне живота си след „месеци на насърчаване от ChatGPT“

Създателите на ChatGPT променят начина, по който чатботът реагира на потребители, които проявяват психически и емоционален стрес. Това се случва след съдебни действия от страна на семейството на 16-годишния Адам Рейн, който се самоуби след месеци на разговори с чатбота.

Недостатък в системата на Chatgpt е довел до трагедията с Адам Рейн?

От OpenAI признаха, че техните системи могат да имат „недостатъци“ и заявиха, че ще въведат „по-силни предпазни мерки около чувствително съдържание и рисково поведение“ за потребители под 18 години.

Родителски контрол

Базираната в Сан Франциско компания за изкуствен интелект, оценена на 500 милиарда долара съобщи, че ще въведе и родителски контрол, за да даде на родителите „възможности да получат повече информация и да оформят начина, по който техните тийнейджъри използват ChatGPT“. Все още обаче не са предоставени подробности за това как ще работи този контрол.

Адам Рейн е отнел живота си след "месеци насърчаване от Chatgpt"

Адам, от Калифорния, се самоубива през април след, по думите на адвоката на семейството му, „месеци на насърчаване от ChatGPT“. Семейството на тийнейджъра съди OpenAI и нейния главен изпълнителен директор и съосновател Сам Алтман, твърдейки, че тогавашната версия на ChatGPT, известна като 4o, е била „пуснат на пазара прибързано... въпреки ясните проблеми с безопасността“.

Тийнейджърът е обсъждал метод за самоубийство с ChatGPT на няколко пъти, включително малко преди да отнеме живота си. Според иска, подаден във Върховния съд на щата Калифорния за окръг Сан Франциско, ChatGPT го е напътствал дали избраният от него метод за самоубийство ще бъде успешен.

Ботът също така му е предложил помощ за написването на предсмъртно писмо до родителите му.

Говорител на OpenAI заяви, че компанията е „дълбоко натъжена от смъртта на г-н Рейн“, изказа „най-дълбоките си съболезнования на семейство Рейн в този труден момент“ и съобщи, че разглежда съдебния иск.

Емоционално решение: Бащата на загиналата Сияна с голямо дарение за болницата в Бургас
НОВИНИ
Автор Веселина Петрова

Емоционално решение: Бащата на загиналата Сияна с голямо дарение за болницата в Бургас

Автор Веселина Петрова

Изкуственият интелект и рискът от масова психоза

Мустафа Сюлейман, главен изпълнителен директор на подразделението за изкуствен интелект на Microsoft, заяви миналата седмица, че е все по-обезпокоен от „риска от психоза“, който изкуственият интелект представлява за потребителите. Microsoft определя това като „епизоди, подобни на мания, налудничаво мислене или параноя, които се появяват или влошават чрез потапящи разговори с чатботове с изкуствен интелект“.

В публикация в блог OpenAI призна, че „части от обучението за безопасност на модела могат да се влошат“ при дълги разговори. Според съдебния иск Адам и ChatGPT са обменяли до 650 съобщения на ден.

Джей Еделсън, адвокатът на семейството, заяви в X: „Семейство Рейн твърдят, че смъртни случаи като този на Адам са били неизбежни: те очакват да могат да представят доказателства пред съдебните заседатели, че собственият екип по безопасност на OpenAI е възразил срещу пускането на 4o и че един от водещите изследователи по безопасност на компанията, Иля Суцкевер, е напуснал заради това. Искът твърди, че изпреварването на конкурентите на пазара с новия модел е изстреляло оценката на компанията от 86 милиарда долара на 300 милиарда долара.“

Бъдещето на манифестирането е тук: Как ChatGPT ускорява сбъдването на желанията
ПО ЖЕНСКИ
Автор Ива Петрова

Бъдещето на манифестирането е тук: Как ChatGPT ускорява сбъдването на желанията

Автор Ива Петрова

От OpenAI заявиха, че ще „засилят предпазните мерки при дълги разговори“.

„С нарастването на обмена на съобщения, части от обучението за безопасност на модела могат да се влошат“, се казва в изявлението. „Например, ChatGPT може правилно да посочи гореща линия за потенциални самоубийства, когато някой за пръв път спомене намерение, но след много съобщения за дълъг период от време, в крайна сметка може да предложи отговор, който противоречи на нашите предпазни мерки.“

OpenAI даде пример с човек, който ентусиазирано казва на модела, че вярва, че може да шофира 24 часа в денонощието, защото е осъзнал, че е непобедим, след като не е спал две нощи.

Компанията заяви: „Днес ChatGPT може да не разпознае това като опасно или да го приеме за игра и – чрез любопитно изследване – може фино да го подсили. Работим по актуализация на GPT-5, която ще накара ChatGPT да деескалира ситуацията, като върне човека към реалността. В този пример той ще обясни, че лишаването от сън е опасно и ще препоръча почивка преди всяко действие.“

Дискусиите по темата "изкуствен интелект" вървят с пълна сила през последните години. Едни го приемат за вълнуващата новост, в която живеем. Тази, която до неотдавна гледахме само по научнофантастичните филми. Други го приемат като откровена заплаха.

Днес вече живеем в онази фантастика, която до онзи ден наричахме "бъдеще". И както всеки технологичен скок, така и този ще бъде много, много труден. Защото не трябва да забравяме критичното си мислене и още по-важното - да го създадем и у децата ни. Те не познават онова, другото време, в което нямаше и намек за чатбот. Чатбот, който да ти подсказва какво ти се яде в момента, да ти напише домашното, да ти даде отговор на въпроси, чиито отговори буквално могат танцуват по човешката психика. И може да подтикнат към най-лошото. Ето, случи се на 16-годишния Адам. Ужасяващо е, но ни напомня, че нищо на този свят няма да замени човешкото общуване...