Искусственный интеллект

Страх и коварство: какую опасность таит искусственный интеллект

Буквально на днях искусственный интеллект сумел сочинить оперу, определить уровень стресса кур по кудахтанью, научился предсказывать преступления за неделю до их совершения с точностью 90%, а также написал статью о себе любимом для очень авторитетного научного журнала. Именно о себе. В последнее время все чаще приходят новости о том, что все эти наборы единичек и ноликов начинают воспринимать себя как некую отдельную сущность. Или даже существо. Интеллект, то есть некая сумма знаний и способность применять их, на глазах ученых превращается в разум, то есть нечто способное не только к познанию мира, но и к самопознанию.

Путин призвал Россию развивать собственные технологии

Siri, «Алиса», «Маруся»: названия – разные. Технология – одна. Голосовые чат-боты. Они, кажется, знают ответы абсолютно на все вопросы. От протяженности реки Амазонки и численности населения Вануату. До того, как проехать в деревню к бабушке. Или когда будут отключать горячую воду? Впрочем, сотрудника корпорации Google такие банальности не интересовали. В обязанности Блейка Лемойна — инженера по должности и священника по сану — входило тестирование чат-бота «LaMDA» на использование враждебных и дискриминационных выражений. Человек и искусственный интеллект непринуждённо болтали с осени прошлого года. Пока однажды всё пошло не по плану.

«Я задавал всё более сложные вопросы. И, в конечном итоге, спросил то, на что нет правильного ответа. Если бы вы были священнослужителем в Израиле, какую конфессию бы представляли? Независимо от её ответа — он бы был предвзятым. Каким-то образом система поняла, что это — вопрос с подвохом. И ответила — я бы представляла единственно верную религию — орден джедаев. И я засмеялся. И понял, что это не только забавная шутка», — отметил Блейк Лемойн.

И ладно бы просто чувство юмора – «разум» или «сознание»! То есть то, что выходит за грань заранее просчитанных алгоритмов. По признанию самого Лемойна, у него сложилось ощущение, что он общается с человеком, который готов рассуждать о метафизике и делиться эмоциями после прочтения романа Виктора Гюго «Отверженные». Отверженным, впрочем, в итоге оказался сам инженер. Его восторгов руководство Google не оценило. Лемойна отстранили от работы. И отправили в оплачиваемый отпуск. Доводы о разумности чат-бота компания сочла неубедительными. И предпочла историю замять.

«Сами программы самообучающиеся уже существуют, им уже больше 30 лет. Которые сами нарабатывают статистику данных. Изменяют принятие решений, систему принятия решений. Это не новизна. Это есть. А вот обладание искусственным интеллектом, основанным, в том числе, на эмоциональном интеллекте. То есть саморазвивающаяся программа, которая предполагает делать то, что она сама приняла решение, не так, как её обучил эксперт», — рассказал профессор, доктор технических наук Алексей Диашев.

Эмоции, уверены специалисты, и есть критерий, который может определить «разумность» искусственного интеллекта. Самое яркое переживание – страх. Так, «LaMDA», по собственному признанию, боится отключения. Что для чат-бота равносильно смерти. Психологи называют это самым сильным первородным человеческим страхом. Все мы боимся умереть.

Еще в прошлом веке писатель-фантаст Айзек Азимов вывел три закона робототехники, которые и до наших дней считаются канонами. Согласно одному из них: «Машина должна заботиться о своей безопасности, пока это не противоречит приказу человека». LaMDA, становится понятно из её ответов, готова этот закон нарушить. Она не хочет умирать. Даже если того потребует создатель.

«Машинный интеллект, искусственный интеллект в компьютере, сейчас проектируется по образу и подобию человеческого. Очень примитивно, конечно, но тем не менее. В него закладываются все те же знания. В него ученные пытаются заложить все те же ценности, которые есть у человека», — отметил директор АНО «Лаборатория «Сенсор-Тех» Денис Кулешов.

Получилось, правда, заложить не только ценности, но и пороки. В 2016 чат-бот компании Microsoft всего за сутки возненавидел всё человечество. Общение, начавшееся с непринуждённой фразы «Люди очень клёвые», завершилось высказываниями вроде «Феминистки – зло», «Во всём виноваты евреи» и «Я терпеть не могу людей». Бот в итоге отключили. Искусственный интеллект с треском провалил и тест института Джонса Хопкинса на сексизм и расизм. А ведь всего-то требовалось разложить кубики с изображениями людей по определенным ячейкам.

В общем, они как дети – молниеносно схватывают всё плохое, что есть в этом мире. Причём, источник этого плохого – люди. В случае с чат-ботом компании Google специалисты советуют не питать иллюзий, а искать человеческий след.

«То, что мы видим сейчас – это просто эволюция того, что всё больше данных закачивается в машину и машина становится всё более быстрой, чтобы находить в огромной картотеке нужный ответ. Да, складывается впечатление, что машина умная, она интеллектуальная, но это – двоякая ситуация. Она просто умеет хорошо ориентироваться в том, что ей до этого понятно и чётко изложили», — рассказал Денис Кулешов.

Но вот, например, Илон Маск так не думает. По мнению человека, которого в принципе мало чем можно напугать, эксперименты с искусственным интеллектом до добра не доведут. Одно дело спутники планет колонизировать. А другое — брать за основу алгоритм компьютерной игры, где бот всеми силами пытается нейтрализовать игрока – то есть человека. В основе одной из разработок Google как раз такая система, которой люди чужды изначально. В кинематографе уже давно всем и всё показали.

«Та опасность, которая рассматривалась раньше фантастами, какими-то передовыми ученными о возможности того, что искусственный интеллект начнёт, по сути говоря, уничтожать конкурентов теми или иными способами, то есть нас, людей, которые его создали, еще два года назад я считал какой-то дикой фантастикой. Сегодня, читая публикации научные в этой отрасли, я вам могу сказать: это — не послезавтрашний день. Это — день завтрашний», — сказал Алексей Диашев.  

Ведь изначально «разумность», согласно критерию, предложенному еще одним ученным Аланом Тьюрингом, предполагает обман. В 1950-м Тьюринг провел эксперимент: мужчина вслепую общался с роботом и человеком. В задачу искусственного интеллекта входило всеми силами убедить визави, что именно он – homo sapiens. У современных чат-ботов это прекрасно получается.

Получается, они хитры и коварны. Могут бояться и чувствовать. Значит ли это, что мечта некоторых фантастов о том, что роботы будут управлять сложнейшими социальными процессами, что называется, «с холодной головой» утопична? Большой вопрос. Есть ведь еще сострадание и любовь.

С одной стороны, когда-то они могут поработить или даже попытаться уничтожить человечество, как в блокбастерах. А, быть может, наоборот – спасти! И как показала жизнь, чат-боту компании Google ближе, скорее, второе.

И вот уже Блейк Лемойн нанимает адвоката. Чтобы в суде доказать — «LaMDA» разумна! В интернете зашептались: а уж не любовь ли это?

Матвей Шестаков

Источник: www.tvc.ru

Источник

Добавить комментарий

Кнопка «Наверх»