Давать ли роботам право на убийство?

Из Азимова мы знаем о трех законах робототехники. Первый из которых важнейший. “Робот не может причинить вред человеку или своим бездействием допустить, что бы человеку был причинен вред”. Он же самый противоречивый. Что будет делать робот, когда убивая одного человека он спасает другого? А если двух других? Какой выбор сделает он?

Мы пока не знаем, что такое робот и искусственный интеллект. Все, что сейчас доступно — машинное обучение, зачаточное состояние моделирования компьютерных нейросетей, анализ больших данных. Даже с терминами ещё не определились. Я верю, что рано или поздно искусственный интеллект возникнет и в наших силах поразмышлять над тем превратится ли он в Скайнет или нет.

Проблема состоит в том, что пока мы не можем в целом определить, какие вычислительные процедуры мы хотим называть интеллектуальными. Мы понимаем некоторые механизмы интеллекта и не понимаем остальные. Поэтому под интеллектом в пределах этой науки понимается только вычислительная составляющая способности достигать целей в мире.

Джон Маккарти

Попробуем разобраться. Сегодня существует три ситуации, когда робот может убить человека:

  • Механическая или программная неисправность самого робота. Например, неисправность робота на производстве приводит к гибели человека. В этом случае проблемы с этикой не возникает вовсе. Это производственная или бытовая травма. В случае неправильной эксплуатации ответственность лежит на самой жертве или на производителе оборудования, если неисправность была вызвана браком.
  • Намеренное убийство в ручном и полуавтоматическом режиме. Сюда относятся военные дроны, управляемые ракеты, ракеты с самонаведением и прочее оружие. В этом случае про этику можно поспорить, но окончательное решение об убийстве принимал конкретный человек, на нем и лежит ответственность, он нажимал на кнопку.
  • Намеренное убийство в автоматическом режиме. Системы ПВО, принимающие решения об атаке без участия человека. Автоматические турели, обстреливающие всё в зоне поражения и другое вооружение, действующее по тому же принципу. Фактически выводы, сделанные из второго пункта, относятся и к этой ситуации, хотя и с некоторой оговоркой, касаемо этической стороны. Все эти дискуссии человечество ведёт ещё со времён установки первой противопехотной мины, которая убила вовсе не пехотинца.

Мы стоим на пороге, когда человечеству все же предстоит сделать выбор: давать ли роботам право на убийство.

Представьте себе ситуацию, когда мы наделяем автономно управляемый автомобиль выбором: убить пассажира или пешехода. Машина неожиданно выехала на обледенелый участок дороги, её заносит и на основе данных от всех своих умных датчиков и быстрых сенсоров она делает вывод: крутану рулём направо — улечу в обрыв, крутану налево — собью пешехода, не буду крутить рулём — погибнут все. Нужно принимать решение. Конечно, мы говорим только о безвыходном случае, когда любое действие или бездействие приведёт к чьей-нибудь гибели. В ситуации, когда машина разобьётся, но все останутся живы — нужно бить машину, тут сомнений не возникает.

Вот такую непростую задачку придётся решить нам до того, как автономные машины выйдут из стадии прототипов и начнут колесить по нашим дорогам, став полноправными участниками дорожного движения. Попробуем рассмотреть проблему с разных точек зрения.

Производители автомобилей. Какие команды заложит в программу автомобиля производитель на случай, описанный выше? Могу с большой долей уверенности предположить: убить пешехода. Кто купит машину, в программу которой заложена вероятность, что эта самая машина может сделать выбор не в твою пользу и сбросить тебя с обрыва? Не будет заголовков «Мы убиваем пешеходов — вы живёте», всё под девизом «Ваша безопасность на первом месте».

Мерседес, например, уже решил для себя эту проблему. Кристоф вон Хьюго (Christoph von Hugo), менеджер фирмы по системам помощи водителю и активной безопасности, выразил точку зрения компании на Парижском автошоу в 2016 году: «Если вы точно может спасти хотя бы одного человека, спасайте его. Спасайте того, кто в машине. Если вы точно знаете, что можете предотвратить одну смерть, тогда это и есть ваш главный приоритет”. Слабое оправдание, не правда ли? А если речь идёт о группе детей-пешеходов и престарелом водителе автомобиля?

Предоставить водителю решать. Конечно, в аварийной ситуации невозможно оперативно передать управление водителю, но можно дать водителю заранее сделать настройку безопасности. Пока даже не могу представить себе, как именно это будет реализовано, но что-то вроде переключателя приоритета «водитель — пешеход» с возможными настройками. Не будем забывать, что из основной проблемы вытекает много вопросов помельче, но от этого не менее важных. Например, кого спасать в приоритете: водителя или пассажира автомобиля? И тут уже идея переключателя не кажется столь нелепой. В случае с автономным автомобилем отец всегда выберет в настройках защиту пассажира-ребёнка, принеся в жертву свою безопасность.

А если водителя вообще нет? Развитие беспилотных автомобилей идёт к тому, что первыми на дороге появятся не частные авто, а общественный транспорт в виде такси, маршруток и автобусов. Настройку будет выполнять не конкретный водитель, а хозяин автобуса или производитель. Возможно, настроек не будет вовсе, а в программу управления будет заложены какие-то стандарты. Людям свойственно болезненно принимать какие-либо непростые решения и многие вздохнут облегчённо, если им не предстоит делать такой сложный выбор.

Кто виноват? Всё устройство государства построено на неотвратимости наказания. Человек старается не причинять вред другому человеку, зная о том, что за свои действия придётся отвечать. В трёх ситуациях, описанных в начале статьи, есть конкретные люди, которых можно привлечь к ответственности, если они что-то сделали неправильно. Можно даже предположить, что ответственность за ДТП в автономном автомобиле возложат на водителя, как владеющего средством повышенной опасности. Приговор три года колонии общего режима с формулировкой «не перевёл управление автомобилем в ручной режим, зная о сложной погодной или дорожной ситуации». Но что делать в ситуации, когда водителя нет? Виноват собственник автобусного парка? Сомнительное решение. Производитель? Ещё более сомнительное. Пока видится самый логичный вариант — не допускать на дорогу автомобили без водителя. Как только пошёл сильный дождь или снег, как только машина поняла, что возможен гололёд или зафиксировала другое отклонение от обычных условий — принудительно передать управление водителю. Это прекрасно продемонстрировано в фильме «Шестой день» со Шварценеггером.

На одну вещь мы можем полагаться совершенно точно — прогресс не остановить. При всех моральных и технологических проблемах мы примем автономные машины и уже через несколько лет будем воспринимать их как должное. Они точно уменьшат аварийность на дорогах: они видят лучше нас, у них моментальная реакция и они, наконец, позволят нам наслаждаться бургером с колой за рулем и не отвлекаться на дорогу.

Кадр из фильма «Я, Робот»