ДУШКИН Роман Викторович

Проблемы использования искусственного интеллекта в борьбе с терроризмом в социальных сетях

Проблемы использования искусственного интеллекта в борьбе с терроризмом в социальных сетях

Террористы не обошли вниманием и социальные сети. Ещё в далеком 2015 году представители Twitter сообщили, что не станут ограничивать террористов в праве пользования их платформой. И тогда, это заявление было направлено в Конгресс США. Однако спустя некоторое время, разработчики из Силиконовой долины изменили своё мнение о том, стоит ли ограничивать использование социальных сетей для террористов, несущих угрозу всему миру. Весной прошлого года компания Facebook выпустила очередной отчет, в котором описываются усилия, предпринятые в борьбе с терроризмом в социальных сетях. Более того, в отчете рассказывалось о том, какую во всем этом роль сыграл искусственный интеллект.

Однако специалисты восприняли этот отчет не так радушно и начали массово оспаривать успехи искусственного интеллекта на поприще борьбы с терроризмом. В своих критических материалах специалисты отмечали, что некоторые инструменты, имеющиеся в социальной сети Facebook могут способствовать террористам в достижении их целей. Также они отметили, что в большинстве своём, контент, пропагандирующий терроризм не удаляется и модераторы практически бездействуют. Сегодня мы постараемся узнать, может ли искусственный интеллект помочь побороть деятельность террористов в социальных сетях.

В том же 2015 году Twitter проигнорировала усилия Конгресса США, которые были направлены на борьбу с присутствием экстремистских материалов в социальных сетях. Тогда, Калева Литару, автора данного материала, спросили, что делать со столь быстрым ростом пропаганды и вербовки в социальных сетях.

Команде Facebook сильно понравилась идея использования искусственного интеллекта для удаления террористической пропаганды на своей площадке в режиме реального времени. Прежде всего модераторы Facebook нацелены на искоренение террористической пропаганды группировок ИГИЛ и Аль-Каида, а также небольших подгрупп. Конечно же, правительства западных стран не остались в стороне и так, или иначе оказывали влияние на принятие Facebook подобных мер.

В докладе, который был опубликован компанией Facebook сказано о том, что за первый квартал 2018 года они смогли выловить 1.9 млн публикаций, пропагандирующих терроризм. В заявлении отметили, что 99.5% террористических публикаций были найдены без участия пользователей. Кроме того, большая часть подобного контента была обнаружена искусственным интеллектом. Однако сколько процентов 1.9 млн публикаций составляет от всего террористического контента в Facebook – неизвестно.

Широкую общественность можно простить за веру в эффективность алгоритмов Facebook. New York Times и BBC по-разному истолковали эту новость, введя многих людей в заблуждение и не дав им понимание того, что произошло на самом деле. В то же время, представитель компании заявляет, что было удалено 99% террористического контента, помеченного искусственным интеллектом, а не контента в целом, как выдумали журналисты.

Facebook не всесильная компания и вряд ли она может повлиять на бестолковых журналистов, которые вводят людей в заблуждение, неправильно описывая действия компании, направленные против терроризма. Однако компания может потребовать более внимательного отношения к распространению информации об их деятельности.

Террористы люди не особо умные, поэтому искусственный интеллект спокойно вычислял их по шаблонным текстам и способам подачи информации. После того, как выявлялся один «шаблон», он заносился в чёрный список и больше не мог использоваться повторно. Представитель Facebook отмечает, что удаление визуального контента происходит только в результате точного совпадения, а текстовый контент уже удаляется при помощи машинного обучения.

Остается неясным, по каким причинам Facebook столь длительное время внедряла технологию, которая удаляет дублирующийся контент. Когда представителя Facebook спросили о том, почему компания не применила технологию отпечатков пальцев для удаления террористического контента – он ничего не сказал. И только после того, как власти оказали серьезное давление на компанию, она согласилась добавить функцию удаления по отпечаткам пальцев.

Facebook сообщает, что большая часть удаленного пропагандистского контента является повторами ранее удаленных материалов. А это значит, что даже понятия не имеем какое количество уникальных материалов на самом деле удаляется алгоритмами Facebook. Существует вероятность того, что удаляемый контент может быть и не террористическим, а удаление происходит в результате ошибки человека или машины. Компания не хочет говорить об этом. И это настораживает.

Однако найти террористическую пропаганду в Facebook можно. Это даже можете сделать вы, введя определенные ключевые слова. Но этого делать не нужно.

Исследователи Bloomberg, введя некоторые ключевые фразы обнаружили целую залежь нежелательного контента. Если Facebook со всей серьезностью отнесется к защите пользователей от публикаций, призывающих к терроризму, то такого контента на площадке вскоре не будет. Представители Facebook заметили, что идеи, продвигаемые в таких материалах нарушают их правила.

Facebook не стала отвечать на вопрос, касающийся того, что в их алгоритмах не прописаны названия каждой крупной террористической группировки на разных языках. Более того, оказалось, что вновь появляющийся контент не удаляется.

Самое страшное то, что Facebook целиком и полностью доверяет искусственному интеллекту, не заставляя людей перепроверять результаты деятельности машины. При этом они забывают о действенных, но более простых подходах, ориентируясь на новаторские идеи.

Вся работа компании Марка Цукерберга в борьбе с терроризмом – бесполезна. Достаточно ввести название группировки, и вот, все перед тобой, как на рекламном баннере, осталось только позвонить. Безответственность компании на лицо.

И тут Калев Литару призадумался, а почему люди, сидящие в Facebook до сих пор не додумались выискивать террористов при помощи их всевидящего поиска? Похоже, ребята из Facebook слепо верят искусственному интеллекту, который, как им кажется, сможет решить все проблемы человечества. Но искусственный интеллект не всесилен и некоторые моменты не могут быть им зафиксированы.

Компания не хочет признавать, что большая часть заблокированных ими материалов является множественными повторениями одного и того же. И речь сейчас идёт о текстовых материалах. А ведь существует ещё и фото, и видео контент, который массово удаляется лишь при точном соответствии, искусственный интеллект здесь бессилен. Также остается неясным, какой объем контента не связанного с терроризмом был удален по ошибке. Facebook отказывается отвечать на многие вопросы, что позволяет сделать вывод о том, что их алгоритмы не идеальны и они сами не уверены в них.

Точно так же поступает Twitter, отказываясь делиться информацией о том сколько контента было удалено благодаря их способу проверки контента.

И ведь самое страшное то, что мы, 2-миллиардная аудитория Facebook или почти 400 миллионное сообщество Twitter даже понятия не имеем о том, что происходит с нашими публикациями и переписками. Социальные сети переходят из более пассивной формы контроля, в агрессивную. И, возможно, они умалчивают просмотр нашей с вами конфиденциальной информации.

Они подарили свободу слова, они её и забирают. Демократия не может существовать в мире, где горстка «избранных» людей может контролировать нашу информацию. Тем более, что Facebook является одной из самых популярных соц.сетей. Безусловно, террористическая пропаганда должна пресекаться на корню, а пользователи, распространяющие её – блокироваться, однако, личная пользовательская информация должна оставаться личной.

Создатели социальных сетей все больше применяют искусственный интеллект для решения своих проблем. При этом, никто не может гарантировать правильность такого подхода, и тем более, его эффективность. Сейчас мы идём по тропе, которая приведет к тому, что некая группа людей завладеет мощностями искусственного интеллекта, контролирующими нашу с вами цифровую жизнь. Средства массовой информации должны выступать как звено обратной связи между социальными сетями и пользователями, которых будут уведомлять о различных трудностях и успехах.

Источник: Forbes

Этот материал, а также другие статьи и обзоры по Искусственному Интеллекту и смежным технологиям можно прочитать на моем канале «Другая фаза» в Яндекс.Дзен: https://zen.yandex.ru/aiqcnt