Emil Zainetdinov

Полезны ли роботы и системы распознавания на войне?

Полезны ли роботы и системы распознавания на войне?
© Popularmechanics

Развитие искусственного интеллекта это лишь вопрос времени, и факт того, что будущие войны будут проходить с его участием уже не кажется чем-то из разряда фантастики. Сторонники разработки систем LAWs (автономные системы летального оружия) считают, что они несут меньший ущерб для мирных жителей. В то же время противники этих разработок считают, что машинам нельзя давать возможность убивать – это станет роковой ошибкой для всего человечества.

Военная отрасль, ИИ и скандалы

Прошедшее летом собрание ООН в Женеве, посвященное роботам-убийцам завершилось победой сторонников искусственного интеллекта. Россия и Израиль выступали противниками запрета разработок в этой сфере, ведь у них уже есть некоторые наработки в военном искусственном интеллекте. Удивительно, но США также согласились с ними.

В июле 2400 специалистов, среди которых и всем известный Илон Маск подписали обязательство, запрещающее им работать с роботами, способными атаковать без участия человека. Работники Google взбунтовались против создания алгоритмов, позволяющих отмечать цели для Пентагона и разработка была прекращена. KAIST – ведущий университет Южной Кореи был подвержен международному академическому бойкоту после того, как была выявлена их причастность к созданию военных роботов. Корейские исследователи также прекратили разработки. Организации, собирающиеся остановить возможное изобретение роботов-убийц становятся все влиятельней, а книга «Армия Никого» за авторством Поля Шара получила признание читателей.

Правительство считает, что регулирование является преждевременным и будет препятствовать новым методам защиты гражданского населения. В Пентагоне уверены, что всегда должен быть человек, который стоит за любой смертоносной системе, но на заседании ООН прозвучало другое.

Специалисты уверены, что плюсами таких систем являются анализ происходящего и прекращение атаки, если это может нанести ущерб населению. Также подчеркивается, что автономное оружие будет оснащено системами, гарантирующими поражение исключительно разрешенных целей. Машины скорой помощи, больницы и другие недопустимые цели поражаться не будут.

LAWs необходимы для того, чтобы защитить мирное население от сопутствующего урона. Использование «традиционных» средств поражения сродни бочкам с порохом – варварство, да и только.

Машины должны стать умнее благодаря глубокому обучению, методике, которая загружает огромные объемы данных в нейронную сеть до получения результата.

Глубокое обучение сможет создать боевых и небоевых роботов, действительные и недействительные цели. Данные должны проходить через дополнительные фильтры перед тем, как выдаваться на изучение летальным системам. Но уже сейчас существуют системы, которые распознают объекты быстрее, чем человек.

Системы распознавания: интересные подробности и проблемы

Пляжи Австралии сейчас охраняются специальными дронами Little Ripper, которые оснащены искусственным интеллектом SharkSpotter, созданным Технологическим университетом в Сиднее. Эти дроны могут сканировать воду на наличие акул, идентифицировать людей, дельфинов, лодки и серфингистов, а также отличать их от акул. В общей сложности эта система может обнаруживать и определять 16 различных объектов с высокой точностью.

Но никто не может гарантировать, что искусственный интеллект будет соблюдать все заложенные в него условия. Человек, управляющий дроном вряд ли сможет различить террористов от мирных жителей. Специалисты уверены, что человек будет пытаться увидеть то, что ожидает увидеть и игнорировать противоречивые данные в стрессовых ситуациях. Человеческий фактор стал причиной уничтожения иранского авиалайнера авианосцем «Винсеннес» в далеком 1987 году.

Оружие с искусственным интеллектом станет отличной заменой современных умных бомб, которые могут «ошибаться». 9 августа одна из таких попала в школьный автобус, убив 40 школьников.

Мнение экспертов

Крутое распознавание! © Popularmechanics
Крутое распознавание! © Popularmechanics

Рональд Аркин, профессор в сфере робототехники считает, что распознавание школьных автобусов и прочих «неприкосновенных» объектов можно очень просто реализовать при помощи соответствующих маркировок.

Ноэль Шарки, специалист по искусственному интеллекту, является противником нововведений в военную отрасль. Также он подчеркивает, что системы распознавания лиц плохо работают с женскими лицами и темнокожими людьми.

Студенты MIT сумели обмануть систему, выдав пластиковую черепаху за винтовку.


Сегодня искусственный интеллект не может превзойти человека на поле битвы, но, в будущем, эти системы смогут помочь минимизировать потери среди мирных жителей. Многие не согласны с тем, что автономное оружие сможет уменьшить сопутствующий урон. Специалисты придерживаются мнения, что искусственный интеллект не вправе принимать решения о том кому жить, а кому умереть.

Источник: Popularmechanics