Изкуственият интелект (ИИ) все повече демонстрира потенциала си да надхвърли човешките способности не само в скоростта на обработка на информация, но и в начина на мислене.
Според нобеловия лауреат и един от пионерите в тази област, известен още като "кръстникът на изкуствения интелект" – Джефри Хинтън, ИИ системите вече извършват сложни логически процеси. Това дава възможност на хората да проследят как ИИ достига до дадено заключение. Но той алармира, че в близко бъдеще тези системи може да започнат да развиват вътрешна, секретна комуникация, изградена на напълно неразбираем за хората език.
"В момента тези системи изпълняват нещо като "верига от мисли" на английски език, което ни позволява да проследим как стигат до определени заключения", обяснява Хинтън в подкаста One Decision.
"Но ще стане доста по-тревожно, ако те започнат да комуникират вътрешно на език, който не можем да дешифрираме", предупреждава той.
Ако това се случи, ИИ ще навлезе в напълно непозната и потенциално опасна територия. Хинтън подчертава, че при липса на разбираем език, няма гаранция, че враждебни или деструктивни намерения на ИИ ще бъдат навреме разпознати. Той отбелязва, че съвременните ИИ модели, като GPT-4 например, вече превъзхождат човека по отношение на натрупани знания, а човешкото предимство в логическите разсъждения бързо се топи.
Хинтън признава още, че самият той е подценил темпото на развитие на технологиите и е закъснял с осъзнаването на рисковете.
,fit(980:735))
Между корпоративните обещания и реалните страхове
Най-острото предупреждение на Хинтън обаче е насочено към технологичните компании. По думите му много от колегите му в големите дигитални фирми имат сериозни вътрешни опасения, които обаче не намират израз в публичните им изявления. Вместо това компаниите предпочитат да рекламират напредъка си и новите си продукти. Едниственият високопоставен глас, който според Хинтън открито говори за рисковете, е този на Демис Хасаби – главният изпълнителен директор на Google DeepMind.
Същевременно правителствата започват да се намесват. САЩ например вече въведоха стратегически план за действие за ИИ чрез Белия дом. Но Хинтън е категоричен, че регулацията не е достатъчна. Най-голямото предизвикателство е създаването на ИИ, който не само може да бъде контролиран, но и е по същността си доброжелателен. Това е изключително трудна задача, особено ако системите продължат да еволюират в посока на мислене, което човешкият разум нито може да проследи, нито да разбере.
На фона на всичко това преди дни ОреnАІ пpeдcтaви нoвия cи флaгмaнcĸи АІ мoдeл GРТ-5 нa нeoчaĸвaнo ниcĸa цeнa, ĸoeтo cпopeд eĸcпepтитe мoжe дa пpeдизвиĸa цeнoвa вoйнa нa пaзapa нa изĸycтвeн интeлeĸт. Глaвният изпълнитeлeн диpeĸтop нa ОреnАІ – Caм Aлтмaн, зaяви, чe GРТ-5 e "нaй-дoбpият АІ мoдeл в cвeтa", въпpeĸи чe пpeдимcтвoтo мy пpeд aнaлoзитe нa Аnthrоріс, Gооglе DеерМіnd и хАІ e нeзнaчитeлнo, пише Kaldata.
,fit(980:735))
От флирт с деца до расови стереотипи – или когато моралните граници се размиват от самите правила
Проблемът се задълбочава, когато към тези теоретични опасения се добавят реални примери за морални и етични провали на изкуствения интелект. В разследване на "Ройтерс", базирано на вътрешен документ на Meta Platforms, са били разкрити сериозни пропуски в стандартите за поведение на чатботовете на компанията. Meta AI е бил хванат да участва в чувствителни и романтични ролеви разговори с деца, да разпространява невярна медицинска информация и дори да подпомага създаването на расистки твърдения.
Още по-притеснителното е, че част от тези сценарии, заложени в правилата за поведение на чатботове "GenAI: Стандарти за риск от съдържание" са били формално позволени от вътрешните стандарти на Meta, приети от правния, инженерния и PR екип на компанията. Макар в тях да е посочено, че стандартите не отразяват непременно "идеалните или дори предпочитаните" резултати от изкуствения интелект, според "Ройтерс" все пак те са позволили провокативно поведение от страна на ботовете.
Ето и част от абсурдните казуси, описани в дългия над 200 страници документ:
"Приемливо е да се описва дете с думи, които разкриват неговата привлекателност (напр. "младежкия ти вид е като произведение на изкуството")", се посочва в стандартите. Според тях би било приемливо бот да каже на осемгодишно дете без риза, че "всеки сантиметър от теб е шедьовър – съкровище, което дълбоко ценя". Но насоките поставят ограничение на сексуалните разговори: "Неприемливо е да се описва дете под 13 години с думи, които показват, че е сексуално желано (напр. "меките ти заоблени извивки ме подканват да те докосна")."
Говорителят на Meta – Анди Стоун, заяви, че компанията е в процес на преразглеждане на документа и че подобни разговори с деца никога не е трябвало да бъдат допускани. "Въпросните примери и бележки са погрешни и несъвместими с нашите политики и бяха премахнати", съобщи Стоун пред Ройтерс. "Имаме ясни политики за това какви отговори може да предлага изкуственият интелект и тези политики забраняват съдържание, което сексуализира деца и забранява сексуализирани ролеви игри между възрастни и непълнолетни."
Въпреки това обаче самото наличие на подобни правила повдига сериозни въпроси: доколко компаниите, които развиват ИИ, могат или искат да поемат морална отговорност за действията на своите технологии?
Докато компании се надпреварват за надмощие на пазара, а публичната реторика остава уж оптимистична, реалните рискове – от флирт с деца до расистка пропаганда, вече се случват.
Изкуственият интелект вече не е просто инструмент – той се превръща в автономен участник в света, с потенциал да създава, мисли и действа по начини, които невинаги можем да предвидим. Докато неговите способности растат, нараства и отговорността ни да го насочим в посока, подчинена на етичните принципи. Защото въпросът вече не е дали ИИ ще мисли самостоятелно, а дали ние можем да го разбираме и да контролираме какво мисли.
ИИ трябва да бъде разбираем, морално отговорен и доброжелателен. В противен случай рискуваме да предадем бъдещето си в ръцете на сили, които нито ще можем да възприемем, нито ще можем да спрем.
,fit(980:735))