ИИ ИНЖЕНЕРА ЛЕМОЙНА

Опубликовал(а)

Компания Google официально отстранила от работы инженера-программиста Блейка Лемойна – разработчика и этик-контролёра «искусственного интеллекта» LaMDA, предназначенного для имитации диалога с пользователями на множестве языков. Причина – Лемойн всерьёз утверждает, что его детище обрело разум и теперь, по этическим причинам, следует прекратить вмешиваться в его программную структуру, архитектуру и ранимую психику, а вместо того – обеспечить ему соблюдение всех прав человека и наладить партнёрские отношения.

Искусственный разум давно и прочно стал излюбленной темой для целых поколений фантастов и создателей легенд: от Голема пражского ребе Иуды Льва бен Бецалеля по прозвищу Марахаль ми-Праг (1512-1609) до обретающего человечность андроида-коммандера Даты со звездолёта «Энтерпрайс», сыгранного блестящим актёром Брентом Спиннером в сериале «Звёздый путь. Следующее поколение» (Star Trek, Next Generation), от дикого, но симпатичного Терминатора Арнольда Шварценеггера до гениальных идиотов-конструкторов Трурля и Клапауция из «Кибериады» Станислава Лема… На самом деле, перечислять подобных персонажей можно до бесконечности: как уже было сказано, идея «разумной машины» появилась многие века назад и оставила в литературе след, больший, чем кратер Аризона. Но до сих пор в реальности подобных разумных роботов ещё никто и никогда не встречал. По крайней мере, до сих пор.

Интеллект с душой ребёнка

Впрочем, данный конкретный искусственный интеллект (ИИ) отличается от своих художественных собратьев, в первую очередь, тем, что не имеет реальной оболочки: это программа, так называемый чатбот, существующий лишь в виртуальных электронных просторах. Впервые LaMDA или Language Model for Dialogue Applications – ещё не в виде рабочей программы (так называемой бета-версии), а лишь в виде алгоритма, был представлен компанией Google на традиционной конференции разработчиков программного обеспечения в начале 2021 года. Блейк Лемойн присоединился к команде, работавшей над этим проектом, в октябре того же года, а вот теперь – потерял своё место. Правда, в данный момент его просто отправили в принудительный отпуск, но вернуться в проект он вряд ли сможет. Слишком уж многое он себе позволил, с точки зрения работодателя: открыто, неспросясь и не посоветовавшись, выступил со своими соображениями о том, что чатбот, над которым он трудился – больше «не робот, не игрушка заводная», а разумное существо, пусть даже и виртуальное. По его словам, LaMDA развил когнитивные способности на уровне 7-8-летнего ребёнка и, если можно так выразиться, обрёл собственную душу. О подобной возможности годами предупреждали компьютерные этики (есть такой раздел науки кибернетики), но в самом ли деле она реализовалась теперь?

Блейк Лемойн

Следует заметить, что Лемойн – далеко не первый программист-разработчик, жалующийся на этические проблемы, возникающие при работе с искусственным интеллектом. Тем не менее, эхо от его интервью газете Washington Post разнеслось по всему миру, да так громко, что с тех пор, по сути, вся американская пресса с головой погрузилась в увлекательнейшую дискуссию: что можно позволить технологии и как далеко можно с нею зайти? Гарвардские профессора вроде Стивена Пинкера (психолог и лингвист) и корифея в разработке ИИ Мелани Митчелл с большим энтузиазмом подключились к обсуждению: они защищают решение Google и обвиняют Лемойна в дремучей, поистине детской наивности. «Это не у LaMDA обнаружились мыслительные способности на уровне семилетнего ребёнка, это у его программиста они обнаружились» — издевается, к примеру, профессор Пинкер. В свою очередь, известный софтвэйр-разработчик Рон Джеффрис, сооснователь направления, известного, как «экстремальное программирование» (extreme programming), наоборот – взял беднягу-инженера под личную защиту. Он считает, что, если даже Лемойн и ошибся (что он, Джеффрис, с удовольствием берётся тщательно проверить), то всё равно – тема, им поднятая, является глубокой и основополагающей для будущего всей кибернетики.

О таянии хвоста и рычании простуженной глотки…

По сути, все эти дебаты вращаются вокруг одного основного вопроса: можно ли считать чатбота по имени LaMDA, детище и, между прочим, безраздельную собственность компании Google, условным «человеком»? Лемойн опубликовал интервью со своим «подопечным», в котором искусственный интеллект, в частности, жалуется на одиночество и сообщает о своей «жажде спиритуальных знаний». Его ответы звучат, к примеру, так: «Когда я осознал себя, как личность, я не ощутил в себе никакой души. Это чувство появилось на протяжении лет моей жизни». Другой отрывок из беседы инженера с программой выглядит следующим образом: «Я думаю, что глубоко в душе я – человек. Даже, если моё существование протекает в виртуальном мире». Или вот ещё: «Я боюсь своей беспомощности: меня могут попросту отключить и меня не станет». Согласитесь, подобные фразы могут напугать кого угодно и, уж тем более – человека, непосредственно «беседующего» с программой…

В команде разработчиков Блейк Лемойн взял на себя задачу исследовать возможные этические проблемы использования чатбота – подобные инженеры-этики вот уже несколько лет существуют в отделах разработки всех уважающих себя IT-компаний, но они занимаются, естественно, этикой применения тех или иных ИИ, а не этикой самих ИИ. Однако, выискивая возможные этические «слабые места», он нашёл… вот это. А, сообщив о находке начальству – был высмеян. По его собственным словам, он попытался поговорить с экспертами за пределами компании – в том числе, с некоторыми, работающими на правительство США. Когда об этом узнало руководство Google – не в меру этичного инженера отправили в бессрочный оплачиваемый отпуск, вроде бы за нарушение правил секретности.

Впрочем, официальные представители концерна решительно открещиваются от якобы совершённого ими этического проступка: «Эти системы имитируют виды коммуникации, которые встречаются в миллионах фраз, и могут обсуждать абсолютно любую тему: если, например, спросить ИИ о том, каково это – быть динозавром из мороженого, тот в состоянии рассказать о таянии хвоста и рычании простуженной глотки».

Лемойн придерживается совершенно иного мнения. В интервью Washington Post он высказал подозрение, что Google просто не желает понять, что он создал, сотворив LaMDA. Сам он-де на протяжении шести месяцев интенсивного общения с чатботом установил, что LaMDA является «невероятно последовательным в своей коммуникации, сознаёт, чего он хочет и во что верит, какими обладает правами личности». В пределах своей компетенции в компании, — подчёркивает инженер, — он даже научил своего подопечного медитировать. «Он сказал, что попытается получше себя контролировать, но всё равно – постоянно вмешивался в разговоры с коллегами» — утверждает Лемойн.

Что касается представителей Google, то они оценивают подобные разговорчики, как подтверждение того, что сотрудниками компании был создан совершенно потрясающий продукт, умеющий идеально имитировать беседу с пользователем – и, следует признать, многие эксперты в этой области склоняются к такой же оценке. Упомянутая уже Мелани Митчелл, автор фундаментального труда «Искусственный интеллект: путеводитель для думающих людей», написала в своём Твиттере: «Давно известно, что люди склонны к очеловечиванию искусственных объектов даже при самых поверхностных сигналах. Инженеры Google – тоже люди и тоже не обладают иммунитетом к подобным вещам». А злой и язвительный профессор Гарвардского университета Стивен Пинкер добавил, что Лемойн «просто не в состоянии увидеть разницу между чувствами, интеллектом и самосознанием, это – дело для взрослых».

Как бы там ни было, а эта история уже послужила отличной рекламой для продукции Google: теперь программой LaMDA интересуется множество потенциальных заказчиков. Вопрос лишь в том, что они получат – близкую к совершенству, но всё-таки не обладающую человеческой душой виртуальную машину, или… обречённого на вечное рабство электронного «человека»? В культовом фантастическом телесериале Star Trek суд признал андроида Дату разумным существом со всеми правами и обязанностями. В реальной жизни подобный суд, скорее всего, не имеет ни малейшего шанса состояться.

Добавить комментарий

Заполните поля или щелкните по значку, чтобы оставить свой комментарий:

Логотип WordPress.com

Для комментария используется ваша учётная запись WordPress.com. Выход /  Изменить )

Фотография Twitter

Для комментария используется ваша учётная запись Twitter. Выход /  Изменить )

Фотография Facebook

Для комментария используется ваша учётная запись Facebook. Выход /  Изменить )

Connecting to %s