Natasha Che
Люблю сноуборд и крипту

Станут ли исследователи ИИ убийцами?

К сожалению, у них нет выбора

Станут ли исследователи ИИ убийцами?
Фото: Hacker Noon

Исследования в сфере искусственного интеллекта все чаще используются военными по всему миру для разработок новых вооружений. На прошлой неделе несколько групп исследователей ИИ из разных стран начали борьбу против двух программ, подняв серьезные вопросы о том, смогут ли инженеры повлиять на будущее использование этих технологий.

Американская газета New York Times опубликовала внутреннее письмо Google, в котором тысячи сотрудников выразили протест против работы компании над проектом Министерства обороны США под названием Project Maven, который направлен на использование алгоритмов ИИ для анализа огромного объема изображений и видеоданных.

Пресс-служба Министерства обороны уже сообщала о подобном сотрудничестве в прошлом году:

Никто не рассматривает изучение ИИ как покупку средств защиты или нападения. Существует хорошо организованный рабочий процесс. Ведомство предоставило нам 36 месяцев на изучение вопроса с возможностью привлечения сторонних компаний, что выгодно как для налогоплательщиков, так и военных организаций, которым необходимы лучшие алгоритмы для оптимизации и улучшения своей работы.

Сотрудники компании Google потребовали, чтобы компания отказалась от такого рода партнерства, написав в заявлении:

На фоне растущих опасений по использованию технологий ИИ для разработки вооружения нового поколения, Google изо всех сил старается оправдать доверие общества. Согласившись на работу в проекте, Google встанет в один ряд с такими компаниями, как General Dynamics, Palantir и Raytheon. Даже тот факт, что Amazon и Microsoft тоже участвуют в похожих проектах не должен являться убедительным аргументом для компании Google. Уникальная история компании и ее девиз "Не причиняй зло" никак не согласуются с потенциальной угрозой для жизни нескольких миллиардов людей.

Между тем, в Южной Корее растет возмущение программой разработки наступательных роботов. Над проектом работает лучший инженерный университет страны KAIST и корейским конгломерат Hanhwa, который среди прочего является одним из крупнейших производителей боеприпасов для страны. Десятки ученых, работающих над изучением ИИ по всему миру, выразили протест против подобного сотрудничества:

В то время, как Организация Объединенных Наций обсуждает вопрос о сдерживании угрозы для международной безопасности, которую создают автономные военные комплексы, огромное разочарование вызывает информация, что такой уважаемый институт, как KAIST, принимает участие в гонке вооружений. Мы публично заявляем, что приостанавливаем все виды сотрудничества со всеми подразделениями KAIST до тех пор, пока руководитель организации не предоставит доказательств того, что университет не будет разрабатывать автономное вооружение, которое может управляться без человеческого участия. Мы запрашивали подобную информацию ранее, но наш запрос остался без ответа.
Корейский институт передовых технологий — ведущий учебный и исследовательский университет Южной Кореи, расположенный в Тэджоне (фото: koreatimes.co.kr)

Так называемые “роботы-убийцы” на самом деле худшее, что мы можем представить. Но использование технологии в наступательных целях довольно очевидно, и исследователи хотят иметь свободу выбора — хотят ли они участвовать в подобных проектах или нет.

Более широкая проблема в этой области заключается в том, что все исследования искусственного интеллекта в равной степени применимы как к военным технологиям, так и к улучшению условий жизни людей. Вся суть исследовательской программы в сфере ИИ заключается в создании новых возможностей для компьютеров получать данные, строить прогнозы, принимать решения и действовать без вмешательства человека. С точки зрения исследователей наиболее эффективными алгоритмами являются те, которые могут легко масштабироваться и применяться к любому новому предмету с небольшими надстройками, и, возможно, чуть большим объемом обучающих данных.

На практике не существует реального способа предотвратить попадание этих новейших технологий в военную отрасль. Даже если лучшие исследователи в мире откажутся работать над технологиями, которые могут применяться для наступательного вооружения, другие могут довольно легко использовать уже известные модели в военных целях.

ИИ — это очень актуальный пример проблемы двойного использования технологии как в положительном, там и в негативном ключе. Подобным примером является и ядерная теория, которая, с одной стороны, может быть использована для улучшения здоровья человека при помощи МРТ или создания ядерных реакторов для получения энергии, но в то же время ее можно использовать для убийства сотен тысяч человек.

Но в отличие от ядерных исследований, которые требуют наличия уникального оборудования, и находятся под контролем мировой общественности, к ИИ не применяются подобные требования. Для ИИ необходимо лишь наличие математического и программного обеспечения. При желании любой может построить автономного дрона-убийцу на основе обычного дрона, автоматизированного пистолета и алгоритма анализа визуального изображения, скачанного с Github. Конечно, он будет несовершенен, но он будет работать. В этом плане ИИ похож на биологическое оружие, которое можно произвести на стандартном лабораторном оборудовании.

Фото: media2.s-nbcnews.com

Если не прекратить разработки этой технологии, то рано или поздно она будет полностью готова, и это значит, что возможно будет создать любое оружие на его основе.

Учитывая этот факт, единственный правильный подход заключается не в том, чтобы приостановить сотрудничество Google и Пентагона, а в том, чтобы побудить Google, которая имеет громадное влияние в Вашингтоне, добиваться международных переговоров о запрете подобных видов наступательных вооружений. Бывший председатель Alphabet Эрик Шмидт возглавляет Совет по инновациям в области обороны, и это идеальная позиция, чтобы вывести проблемы использования ИИ на высокий уровень. Подобные переговоры уже подтвердили свою эффективность при ограничении биологического и химического оружия и гонки вооружений даже в разгар холодной войны. Есть все основания полагать, что можно достичь компромисса и в вопросе применения ИИ.

Тем не менее, одной из проблем может стать конкуренция со стороны Китая. Китай инвестирует миллиарды долларов в новейшие разработки для борьбы с американской военной гегемонией. И даже США совместно с другими странами навряд ли смогут остановить это.

Однако стоит отметить, что опасения по поводу войны с использованием новейших технологий не новы. Вычислительный ресурс стоял за высокоточными бомбардировками во Вьетнаме в 1960-х годах, а протесты были сосредоточены на том, чтобы остановить создание новых вычислительных центров для подобных исследований. В результате большинство секретных исследований были остановлены, но их снова возобновили в последнее время. В 1950-х годах появилось Пагуошское движение учёных, которое выступало замир, разоружение, международную безопасность и за предотвращение мировой ядерной войны.

Еще предстоит множество споров и дебатов на эту тему, но мир должен понимать, что все разработки ИИ, вероятно, приведут к повышению потенциала наступательных вооружений. Лучше принять эту реальность сегодня и работать над разработкой этических норм военных действий, чем пытаться запретить исследования, а потом выяснить, что противники взяли на себя лидерство в технологиях ИИ — а вместе с этим и всю международную власть.

По материалам Techcrunch

Один хлопок? Или же бурные овации? Хлопая больше или меньше, вы показываете, какой пост действительно чего-то стоит.
Natasha Che Люблю сноуборд и крипту
Комментарии