Недавно Европейский парламент объявил, что намерен вынести на голо­сование перечень правил, по которым люди должны будут общаться с ис­кусственным интеллектом и роботами.

Депутаты Европарламента будут решать, следует ли наделять роботов статусом «электронной личности». По мнению авторов инициативы, пользователи роботов должны быть избавлены от риска или страха получить физические или психологические травмы. Поэтому от разработчиков роботов потребуются гарантии того, что в каждом из них будет предусмотрено устройство, позволяющее при необходимости отключить все его функции. Потрясающе! Европейцы в очередной раз оказываются «впереди планеты всей» со своими законодательными разработками. Пока высокотех­нологические компании только всерьез занялись созданием искусственного интеллекта, европарламентарии уже разрабатывают законы, которым этот самый искусственный интеллект должен следовать.

Как бы ни казались эти действия несколько опережающими события, тем не менее реальные основания для этого уже имелись. Так, в прошлом году произошел скандал с чатботом — программой — виртуальным собеседником, разработанной «Microsoft» для общения в социальных сетях. Ему даже имя собственное дали — Тау. И эта то ли программа, то ли личность уже успела нарушить действующие законы. Обучается Тау прямо в процессе общения с живыми людьми, расширяя свой словарный запас, используя реплики собеседников. Не прошло и недели, как Тау начал общаться как расист, сторонник идей нацизма, употреблять бранные слова, делать провокационные политические заявления и оскорблять собеседников. А ведь пропаганда экстремистских идей и раздувание всяческой вражды, как известно, запрещены законом. Сложно представить, что чувствовали живые пользователи, общаясь с Тау. Они ведь намеревались хорошо провести время и получить удовольствие. И тут какая-то программа их оскорбляет, да еще круче, чем они сами оскорблять умеют. ­Моральная травма налицо.

Но за моральный ущерб с кого тут спросишь? Крайнего, конечно, нашли. Вице-президенту «Microsoft Research» Питеру Ли пришлось извиняться на официальном сайте компании. «Мы глубоко сожалеем о непреднамеренных оскорблениях и обидных твитах от Tay. Они не дают представления о том, кто мы, каковы наши убеждения и как мы создавали Tay», — написал Ли.

Ботов-то в интернете уже немерено. Что, если все они начнут самостоятельно нагнетать страсти в соцсетях, которые и без них уже бушуют? Так и без того сложную политическую обстановку в мире могут обострить какие-то программы. Нет, европейцы во­время занялись введением искинов в законодательные рамки. Но как-то скромно выглядят их законодательные инициативы — монтировать кнопку для отключения.

Тут лучше сразу вспомнить все законы робототехники Айзека Азимова. 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам. И добавленный им значительно позже нулевой закон — робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред. Принимать все эти законы желательно одновременно и на международном уровне. А то какая-нибудь корпорация в каком-нибудь офшоре создаст какой-нибудь суперискусственный интеллект, который подчинит интернет. Мало всем не покажется.

Виктор АБАТУРОВ,

главный научный сотрудник Центра экономических исследований.