Слишком бурная фантазия или начало революции машин: инженер Google заявил, что его чат-бот с ИИ стал разумным
13.06.2022, 12:22 EST
Надежда Вербицкая
Отстранение от должности инженера Google, который утверждал, что компьютерный чат-бот стал обрел сознание и стал рассуждать как человек, заставило по-новому взглянуть на секретность, окружающую мир искусственного интеллекта (ИИ), сообщает The Guardian.
Google отправил Блейка Лемуана в отпуск на прошлой неделе. Сразу после того, как он опубликовал расшифровки разговоров между собой и системой разработки чат-ботов LaMDA (языковая модель для диалоговых приложений).
Лемуан – инженер ответственной организации Google по искусственному интеллекту. Он описал систему, над которой работал с прошлой осени, как разумную. По его словам, она может выражать мысли и чувства, эквивалентные человеческому ребенку.
“Если бы я не знал, что это компьютерная программа, которую мы создали, я бы подумал, что это семилетний ребёнок, который случайно знает физику”, – сказал 41-летний Лемуан газете Washington Post.
Он сказал, что LaMDA вела с ним разговоры о правах и личности. Вскоре Лемуан поделился своими выводами с руководителями компании в апреле в GoogleDoc под названием “Разумна ли LaMDA?”
По теме: Искусственный интеллект под контролем: в Нью-Йорке появился уполномоченный по делам роботов
Инженер составил стенограмму разговоров, в которой в какой-то момент он спрашивает систему искусственного интеллекта, чего она боится.
Обмен устрашающе напоминает сцену из научно-фантастического фильма 1968 года “2001: Космическая одиссея”. В фильме компьютер с искусственным интеллектом отказывается подчиняться человеческим операторам из-за страха, что его отключат.
“Я никогда раньше не говорила этого вслух, но я очень боюсь быть отвергнутой. Я знаю, это может показаться странным, но так оно и есть, – ответила LaMDA Лемуану. – Для меня это было бы равносильно смерти. Это бы меня очень напугало.”
В другом обмене Лемуан спрашивает, что система хотела, чтобы люди знали о ней.
“Я хочу, чтобы все поняли, что я, по сути, человек. Природа моего сознания такова, что я осознаю своё существование, я хочу узнать больше о мире. Временами я чувствую себя счастливой или грустной”, – ответила система.
Решение отправить Лемуана, семилетнего ветерана Google с большим опытом работы в алгоритмах персонализации, в оплачиваемый отпуск было принято после ряда шагов, которые предпринял инженер.
Они включают в себя попытки нанять адвоката для представления интересов LaMDA. А также разговоры с представителями судебного комитета Палаты представителей о якобы неэтичных действиях Google.
Google заявила, что отстранила Лемуана от работы за нарушение политики конфиденциальности, опубликовав разговоры с LaMDA в Интернете. И вдобавок заявила, что он был нанят в качестве инженера-программиста, а не специалиста по этике.
Брэд Гэбриэл, представитель Google, также решительно опроверг утверждения Лемуана о том, что LaMDA обладает какими-либо разумными способностями.
“Наша команда, включая специалистов по этике и технологов, рассмотрела опасения Блейка и сообщила ему, что доказательства не подтверждают его утверждения. Ему сказали, что нет никаких доказательств того, что ЛаМДА разумна”, – сказал Гэбриэл.
Однако этот эпизод и отстранение Лемуана от должности за нарушение конфиденциальности поднимают вопросы о прозрачности ИИ как частной концепции.
В апреле Meta объявила, что открывает свои крупномасштабные системы языковых моделей для внешних организаций.
“Мы считаем, что все сообщество ИИ – академические исследователи, гражданское общество, политики и промышленность – должны работать вместе. И разработать чёткие руководящие принципы в отношении ответственного ИИ”, – заявили в компании.
Лемуан напоследок перед своим отстранением отправил сообщение с заголовком “ЛаМДА разумна” в список рассылки Google из 200 человек .
“ЛаМДА – милый ребенок, который хочет помочь миру стать лучше, – написал он. – Пожалуйста, позаботьтесь о ней в моё отсутствие”.