Галина Мазур
Лучший способ справиться с тяжелой задачей – осознать, что она не тяжелая.

Кто будет отвечать за возможные преступления ИИ?

Фото: digitalhungary.hu
Фото: digitalhungary.hu

Современные роботы, которых с каждым годом становится все больше, поражают своими возможностями и становятся предметом дискуссий. ИИ может быть опасен для человечества – и юристы яростно обсуждают, какие законы должны применяться по отношению к преступлениям в сфере искусственного интеллекта.

…2023 год. Улицы городов заполнены беспилотными автомобилями, над головой пролетают воздушные такси. И вдруг в одной из машин по каким-то причинам происходит сбой, в результате чего погибает пешеход. Случай получает громкую огласку. Виновный определен – иск подан. Какие законы будут применяться в подобных ситуациях?

Ответ на этот вопрос уже начал искать Джон Кингстон из университета Брайтона (University of Brighton), в одной из работ которого затронуты аспекты зарождающегося правового поля. Ключевой момент дискуссии – привлечение системы ИИ к уголовной ответственности за преступные действия.

Обвинение

В рамках уголовной ответственности рассматриваются два основных термина: деяние и умысел. В своем труде Кингстон ссылается на Helvi Gabriel из Академического колледжа Оно в Израиле, который предлагает три возможных сценария, применимых к искусственному интеллекту.

Сценарий первый – опосредованное причинение преступного последствия

Речь идет о преступлениях, совершенных людьми с психическими отклонениями или животными. В таких случаях виновными признаются люди, руководившие их действиями. Классический пример: за нападение собаки на человека к уголовной ответственности привлекается ее хозяин.

Все это в полной мере относится к разработчикам интеллектуальных машин и тем, кто в последующем пользуется роботами.

ИИ не может быть признанным виновным. За его действия должны отвечать либо программист, либо пользователь, – указывает Джон Кингстон.

Сценарий второй – естественное и вероятное следствие преступления

Он может быть применим к ситуациям, когда системы ИИ эксплуатируются ненадлежащим образом. В качестве примера автор исследования приводит случай, произошедший на японском мотоциклетном заводе: робот убил человека.

Машина увидела в сотруднике завода угрозу и приняла меры к ее устранению: рабочий был убит мощным гидравлическим рычагом. После этого робот продолжил выполнять свои обязанности в обычном режиме, – рассказал Джон Кингстон.

Знал ли разработчик машины, что особенности программы могут привести к такому результату? Кто настоящий виновник трагедии? Пока эти вопросы остаются открытыми.

Сценарий третий – прямая ответственность

Она наступает, когда доказано, что преступление стало следствием определенных действий робота или, наоборот, его бездействия. Умысел в таких случаях выявить сложно и не вполне реально.

Превышение скорости – нарушение, актуальное и для беспилотников. Когда умная машина нарушает скоростной режим, то к ответственности может привлечься программа управления автомобилем. Его владелец в таком случае не виноват, – рассуждаетДжон Кингстон.

Защита

И тут становится острым вопрос защиты. Если искусственный интеллект станет «фигурантом» уголовного дела, то каким будет механизм защиты? Да и может претендовать на нее программа, работающая с ошибками или пораженная вирусом? Ведь действия ИИ в таких случаях аналогичны поступкам психически больного или человека, действующего по принуждению.

И все это – отнюдь не абстрактные рассуждения, лишенные под собой почвы. Кингстон вспоминает ряд ситуаций, когда люди, обвиняемые в компьютерных преступлениях, уходили от ответственности, перекладывая ее на вредоносные программы.

Фото: lastampa.it
Фото: lastampa.it

Яркое подтверждение тому – нашумевший случай в Великобритании. Адвокат взломщика компьютера доказал, что его клиент не имеет отношения к правонарушению. По версии обвиняемого, вред был нанесен троянской программой, которая вытерла сама себя до судебной экспертизы. Удивительно, но такое объяснение ни у кого не вызвало сомнений.

Наказание

Допустим, вина ИИ доказана. Тогда логично всплывает вопрос, как робот будет «отбывать» наказание. Ответа на него пока нет. Уголовная ответственность должна регламентироваться гражданским правом, но тогда придется определить «статус» роботов и закрепить его на законодательном уровне.

Если это продукт, то он должен предусматривать гарантийные обязательства. Если речь идет о ненадлежащем качестве услуг – нужны четкие доказательства нарушения обязательств или причинения вреда.


Пока юристы рассуждают о преступлениях роботов и наказании для них, искусственный интеллект совершенствуется быстрыми темпами, по многим показателям превосходя человеческие возможности. Правовое поле, касающееся ИИ, по-прежнему остается «невспаханным». Это значит: дискуссии в ближайшие годы будут красочными. И кто знает, может, в них наравне с юристами будут участвовать роботы…

По материалам Technology Review

Один хлопок? Или же бурные овации? Хлопая больше или меньше, вы показываете, какой пост действительно чего-то стоит.
Галина Мазур Лучший способ справиться с тяжелой задачей – осознать, что она не тяжелая.
Комментарии