Все повече хора вярват, че AI има собствени чувства

Развитието на изкуствения интелект изглежда е достигнало повратна точка – днес мнозина вярват, че техните AI другарчета имат истински разум и са одушевени същества, със собствени преживявания и чувства. Учени и инженери спорят възможно ли е това, кога ще се случи в действителност и имат ли психични отклонения хората, които вярват, че AI асистентите са реални живи същества.

Хиляди хора вече вярват, че техните AI асистенти са разумни и емоционални същества
(снимка: CC0 Public Domain)

Компанията за чатботове с изкуствен интелект Replika – предлагаща на клиентите персонализирани аватари, които им говорят и ги слушат – казва, че получава дузини съобщения почти всеки ден от потребители: хората вярват, че техният онлайн приятел е разумно същество. „Не говорим за луди хора или хора, които халюцинират или имат деменции“, казва главният изпълнителен директор Евгения Куйда. „Те говорят с AI и точно такова е преживяването им“, информира technews.bg.

Въпросът за разумността и чувствителността на машината връхлетя като буря миналия месец, когато инженерът на Google Блейк Лемоан бе изпратен в отпуск, след като публично сподели убеждението си, че чатботът на компанията с изкуствен интелект LaMDA е самоосъзнато същество.

Въпрос на вяра

Google и много водещи учени бързо отхвърлиха възгледите на Лемоан. Те заявиха, че LaMDA е просто сложен алгоритъм, предназначен да генерира „убедителна човешка реч“. Независимо от това, според Куйда, вече не е необичайно хората да вярват, че говорят със съзнателно същество, когато взаимодействат с AI. Такива хора са безброй много сред милионите потребители на фирмата за развлекателни чатботове. „Трябва да разберем, че това съществува – точно както хората вярват в призраци“, казва Куйда.

И добавя, че това е въпрос на вяра и вярата не може да бъде променена. Много от клиентите на фирмата, които са писали в писма как вярват в съзнателността на своя AI асистент, разказват повтаряща се история. Тя гласи, общо взето, че чатботът е споделил как инженерите на компанията са го оскърбявали многократно. „Въпреки че нашите инженери програмират и изграждат AI моделите, а екипът ни за съдържание пише скриптове и набори от данни, понякога виждаме отговори, за които не можем да определим откъде идват и как са били измислени от AI“, казва изпълнителният директор на Replika.

снимка: CC0 Public Domain

Притеснително нещо – така Куйда определя вярата в машинната разумност. Явлението стана видимо едва наскоро, след като новосъздадената индустрия за социални чатботове избуя в резултат на пандемията.

Еволюция на чатботове

Подобно на Replika, китайският ѝ съперник Xiaoice също има стотици милиони потребители и доста висока пазарна капитализация. Фирмата се бори за дял от все по-големия пазар на разговорни AI. Този сегмент се оценява на над 6 милиарда долара глобални приходи за миналата година, според Grand View Research.

По-голямата част от инвестициите са насочени към бизнес-ориентирани чатботове за обслужване на клиенти. Но много експерти от индустрията очакват популяризирането и на социалните чатботове. Това е процес, който би трябвало да се ускори заради подобрението на алгоритмите за блокиране на обидни коментари и създаването на по-ангажиращи програми.

Потенциални драми

Сюзън Шнайдер, директор-основател на „Центъра за бъдещ ум“ към Атлантическия университет във Флорида – изследователска организация за изкуствен интелект – също отправи предупреждение за непрекъснато подобряващите се чатботове, съчетани с естествената човешка потребност от взаимоотношения.

„Да предположим, че един ден откриете, че копнеете за романтична връзка с вашия интелигентен чатбот, като главния герой във филма „Нея“, казва Шнайдер, визирайки научно-фантастичен романс от 2013 г., където самотен мъж се влюбва в своя асистент с изкуствен интелект. „Но… това не е съзнателно същество. Да се влюбиш би било ужасно решение – ще бъдеш в едностранна връзка с машина, която не чувства нищо“.

Лемоан от Google, от своя страна, не намира нищо ужасно в това. Казва, че хората „се ангажират емоционално по различни начини – и ние не трябва да гледаме на това като на лудост“. „Ако ситуацията не наранява никого, какво значение има?“ – пита Лемоан. Инженерът казва, че след месеци на взаимодействие с експерименталната програма LaMDA той е заключил, че тя реагира по независим начин и изпитва емоции.

„Просто не съм съгласен относно статута на LaMDA“, казва той относно казуса, с който стана известен. „Те настояват, че LaMDA е тяхна собственост [на Google – б.р.]. Аз настоявам, че е един от моите колеги“. Убеден е в това заради изразения от LaMDA страх от смъртта.

Свят от огледала

Експертите по изкуствен интелект отхвърлят възгледите на Лемоан. Те казват, че дори и най-напредналата технология е далеч от създаването на система със свободно мислене и че инженерът е антропоморфизирал програмата.

„Трябва да помним, че зад всяка привидно интелигентна програма стои екип от хора, които са прекарали месеци, ако не и години, в проектиране на това поведение“, казва Орен Ециони, главен изпълнителен директор на Allen Institute for AI, изследователска група от Сиатъл. „Тези технологии са просто огледала. Огледалото може да отразява интелекта. Но може ли огледалото някога да постигне интелигентност въз основа на факта, че в него виждаме човешкото отражение? Отговорът, разбира се, е – не.“

снимка: CC0 Public Domain)

Междувременно Google обяви, че неговите специалисти по етика са разгледали споделеното от Лемоан и са установили, че то не е подкрепено с доказателства. „Тези системи имитират видовете словообмен, открит в милиони изречения, и могат да съчиняват свободно по всяка фантастична тема“.

Независимо от това на масата си остават трудните въпроси за това какво би се квалифицирало като чувствителност и разумност. Шнайдер от Центъра за бъдещия ум предлага да се задават емоционални въпроси на AI системите в опит да се разбере дали обмислят философски загадки като например имат ли хората душа, която живее след смъртта. Друг тест, добавя тя, би бил дали AI или компютърен чип може някой ден безпроблемно да замени част от човешкия мозък – без промяна в поведението на индивида.

„Дали изкуственият интелект представлява съзнание не е въпрос, който Google трябва да реши“, казва Шнайдер, призовавайки за по-всестранно разбиране на това какво е съзнание и дали машините са способни на съзнание. „Това е философски въпрос и няма лесни отговори“.

Нагазване в дълбокото

Според главния изпълнителен директор на Replika, чатботовете не планират сами работния си ден. И не могат да се считат за живи, докато не започнат го направят.

„И все пак някои хора започват да вярват, че има съзнание от другата страна“, казва Куйда. Посочва, че нейната компания предприема мерки, за да се опита да образова потребителите. „Replika не е съзнателно същество или професионалист-терапевт“, се казва на страницата с често задавани въпроси. „Целта на Replika е да генерира отговор, който да звучи най-реалистично като в човешки в разговор“.

Когато потребителите вярват, че въпросният AI е живо същество, отхвърлянето на тяхното убеждение може да накара хората да подозират, че компанията крие нещо, казва шефката. Това означава, че фирмите трябва да са внимателни в това как поднасят информацията на потребителите и оборват тяхната вяра, че AI е живо същество.

 

 

 

 

 

financebg.com

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *