Автор
Антония Дамянова

Google отстрани свой служител заради твърдение, че изкуственият интелект e опасен, защото проявява разум

Старши софтуерен инженер бе незабавно отстранен временно от работа от американската интернет и софтуерна корпорация "Гугъл". Повод за платения отпуск е твърдението на експерта, че разработваният от компанията изкуствен интелект проявява разум, съобщи ДПА.

В изявление пред в. "Вашингтон пост" Блейк Лемойн споделил мнението, че езиковият модел на "Гугъл" за диалогови приложения (LaMDA) може лесно да премине теста на Тюринг, използван за проверка дали машина може да мисли и има интелект. Той работи в дъщерната компания на "Алфабет" от седем години. Според твърденията на Лемойн езиковият модел може да води сложен разговор за чувства и по други теми много свободно.

В разговори за религията, съзнанието и законите на роботиката, изкуственият интелект се описва като "личност", а не технология, и иска от компанията да го третира като служител, а не като собственост, защото желае да служи на човешката раса, каза Лемойн.

В един от диалозите машината се оказва толкова убедителна, че Лемойн предупреждава за трите закон на роботиката на писателя фантаст Айзък Азимов.



Инженерът е разпространил откъси от разговора си, който на моменти е като между човек и междугалактически представител.

Причината Лемойн да бъде отстранен от работа е, че не се е консултирал с началниците си дали да съобщи установеното. Това нарушава политиката за конфиденциалност на компанията.

Ето как коментира казуса говорителят на "Гугъл" Брайън Гейбриъл пред "Вашингтон пост": "Екипът ни, включително специалисти по етика и технолози, прегледа забележките на Блейк съгласно принципите ни за изкуствения интелект и го информира, че данните не отговарят на твърденията му. Той беше уведомен, че няма доказателства LaMDA да проявява разум (а има много данни за обратното)... Тези системи имитират вида отговори от милиони изречения и могат да правят интерпретации по всякакви фантастични теми."

––––––

* Трите закона на роботиката

1. Роботът не може да навреди на човешко същество или чрез бездействие да причини вреда на човешко същество.

2. Роботът трябва да се подчинява на заповедите, получени от човешки същества, освен когато тези заповеди влизат в противоречие с Първия закон.

3. Роботът трябва да защитава съществуването си, освен когато това влиза в противоречие с Първия и с Втория закон.

По-късно формулиран от робот Закон № 0: Един робот не трябва да причинява вреда на човечеството или чрез бездействието си да допусне на човечеството да бъде причинена вреда. Към останалите закони се добавя условието: „ако това не противоречи на Нулевия закон.“

Четете още: Изкуствен интелект разкрива гей ли си