Анастасия Кириченко
Начинающий художник и жуткий любитель природы

Cambridge Analytica и Facebook показали реальную угрозу ИИ

Cambridge Analytica и Facebook показали реальную угрозу ИИ
Фото: compnovosti.ru

Об этом нас раз за разом предупреждали эксперты. Искусственный интеллект не играет по правилам, он не принимает морально правильные решения и полностью полагается на людей в вопросах этики. Поэтому, когда за дело берутся такие люди как Алекс Никс из Cambridge Analytica и Александр Коган из Университета Кэмбриджа, возникают проблемы.

Компания Cambridge Analytica (предположительно) использовала околонаучные методы, похищала данные и использовала ИИ для создания средств воздействия, предназначенных специально для дезинформации людей.

Независимо от роли Facebook во всем этом, и несмотря на извинения ее основателя, социальная сеть уже отмечена этой «кровавой меткой». Поэтому, даже если выяснится, что ни одна из компаний не нарушала закон, использование искусственного интеллекта против людей и системное манипулирование населением нескольких стран — это ужасный бизнес.

Фото: Itc

Этот инцидент не должен никого шокировать, важно вынести урок из скандала с Cambridge Analytica/Facebook. Этот урок заключается в неэтичном использовании ИИ.

Итак, если вы относитесь к тем людям, которые ожидали нашествие роботов-убийц со сверхсовременным оружием наперевес, то у нас плохие новости — современные злодеи отличаются куда более изощренным мышлением. Они — опытные социальные инженеры, которые стремятся изменить ДНК нашего общества, прикрываясь именем науки, в угоду пропаганды.

В 2013 году исследователь из Стэнфорда по имени Майкл Косински опубликовал документ, в котором демонстрировалось, как ИИ предсказывал характеристики личности человека по данным из Facebook. И делал он это лучше любого человека.

Следует понимать, что «лучше, чем люди» отнюдь не является эмпирической мерой способностей ИИ, к примеру, можно ведь сделать бумажный самолетик, который летает «лучше, чем люди», но это не делает его превосходным.

Фото: Tproger

Становится очевидно, что ИИ может «предсказать» что-либо лучше, чем человек. Если вы создаете нейронную сеть, которая получает вознаграждение, когда подтверждает предвзятость, она и будет подтверждать предвзятость. Несмотря на то, что некоторые труды Косински были подвержены критике, у ученого есть здравый смысл, ведь в свое время он отклонил предложение работать с Коганом.

Впрочем, Коган все же использовал общедоступные методы Косински, чтобы хотя бы частично разработать методы сбора и обработки данных. Данных, которые затем Cambridge Analytica использовала для атаки демократического строя и политического влияния, хотя Коган и отрицает этот факт.

В это время Facebook либо стоял в стороне, наблюдая за происходящим, либо, что еще хуже, поощрял это. А кто же теперь будет защищать нашу свободу выбора и демократию? Можно ли опасаться, что правительство возьмет ИИ на вооружение для информационной войны против народа?

Начиная с этого момента, каждому, кто будет разглагольствовать на тему роботов-убийц, нужно указывать в сторону Cambridge Analytica, объясняя, в чем реальная угроза ИИ: люди без этических норм, используя инструменты пропаганды, осуществляют свою темную социальную инженерию на планете.

Один хлопок? Или же бурные овации? Хлопая больше или меньше, вы показываете, какой пост действительно чего-то стоит.
Анастасия Кириченко Начинающий художник и жуткий любитель природы
Комментарии