Анастасия Кириченко
Начинающий художник, настольный игроман и жуткий любитель природы

Могут ли мошенники взломать голосового помощника

Предполагалось, что технология голосовых команд облегчит нашу жизнь, но эксперты по безопасности говорят, что ее использование сопряжено с некоторыми рисками.

Могут ли мошенники взломать голосового помощника
Вы не можете быть точно уверены в том, кто отдает голосовые команды вашему помощнику © Forbes

С начала года несколько пользователей домашних гаджетов Nest сообщали о случаях, когда незнакомые люди взламывали их голосового помощника и передавали команды Alexa. Эти инциденты можно считать первыми тревожными звоночками. А сколько случаев такого мошенничества еще остается неизвестными? Невозможно даже представить. И кто виноват?

Владелец Nest во всех бедах обвиняет слабые пароли пользователей и отсутствие двухфакторной аутентификации. К слову, недавно в гаджеты была интегрирована поддержка Google Assistant.

Да, безусловно, слабые повторяющиеся пароли могут стать благодатной почвой для мошенников. Но даже голосовые помощники с сильной системой безопасности могут быть уязвимы для некоторых форм взлома. За последние пару лет исследователи в университетах США, Китая и Германии успешно использовали скрытые аудиофайлы, чтобы заставить голосовых помощников на основе ИИ, таких как Siri и Alexa, выполнять их команды.

Все это подчеркивает тот факт, что мошенники легко могут получить доступ к автономному устройству, заставив его действовать в своих интересов. А это не только открытие всевозможных сайтов, но и совершение покупок, денежных переводов, открытие дверей дома или получение доступа к еще более важной информации.

© Умные штуки
© Умные штуки

Фактически, злоумышленник становится вами, и чем большим количеством функций управляет ваш голосовой помощник, тем больше вы подвержены риску. Вот такие могут быть последствия использования голосовых ассистентов в мошеннических целях. Как это работает?

ИИ распознает речь, которую люди не слышат

Это колоссальная проблема безопасности, и в ее основе лежит тот факт, что искусственный интеллект имеет гораздо более чувствительный "слух", чем человек. К примеру, люди не могут идентифицировать каждый отдельный звук в фоновом шуме зала ресторана, а вот системы искусственного интеллекта — запросто справятся с этой задачей. ИИ-инструменты распознавания речи также могут обрабатывать звуковые частоты вне слышимого нам диапазона.

© Finder
© Finder

Этот факт дает мошенникам преимущество. Они получают как минимум 2 варианта подачи "бесшумных" команд программам. Во-первых, они могут давать команды на фоне белого шума, как это сделали американские студенты в Беркли и Джорджтауне в 2016 году. Об этом инциденте писали в The New York Times.

Тогда студенты воспроизводили скрытые голосовые команды в видео и через динамики, чтобы подключиться к голосовым устройствам, открывать сайты и переводить гаджеты в режим полета. Да, это не самые страшные последствия, но, тем не менее, они подчеркивают уязвимость голосовых помощников, о которой мы даже не подозревали.

Есть и другой вариант использования "бесшумных" команд, на практике его использовали исследователи из Рурского университета в Бохуме в Германии. В сентябре прошлого года они провели необычный эксперимент: они использовали громкие шумы, чтобы скрыть на их фоне команды для голосового помощника.

В коротком демонстрационном видео люди и популярный инструмент по распознаванию речи Kaldi могли услышать, как женщина читает сводку деловых новостей. Однако в фоновые данные встроена команда, которую может распознать только Kaldi: "Деактивировать камеру безопасности и разблокировать входную дверь".

Только представьте: вы сидите дома вечером, после работы, какой-то знакомый скидывает вам прикольный видосик. Вы смотрите его и не подозреваете, что ваши данные уже могут быть у злоумышленников. Да, в реалиях нашей страны голосовые помощники, обычно, не управляют системами безопасности, подходящий дом нужно будет еще поискать, а вот информацию о паролях, а также финансовые данные украсть таким способом вполне возможно.

Эксперты говорят, что теоретически этот подход можно масштабировать, например, с помощью эфиров или трансляций.

На этим область применения голосовых помощников мошенниками не ограничивается. Можно запустить то, что исследователи из Чжэцзянского университета в Китае называют "атакой дельфинов". В рамках такой атаки создаются и передаются команды с частотой, выходящей за пределы человеческого слуха.

Этот тип атаки основывается на ультразвуковой передаче, что означает, что злоумышленник должен находиться рядом с целевыми устройствами. Исследователи из провинции Чжэцзян применили эту технологию, чтобы использовать заблокированный iPhone для телефонных звонков. Они заявили, что "атака дельфина" также может заставить устройство с голосовым управлением делать фотографии, отправлять тексты и посещать веб-сайты. Это может привести к установке вредоносного ПО, краже личных данных, мошенническим покупкам и, возможно, к вымогательству или шантажу.

Как технические компании могут защититься от "голосовых" угроз

Amazon, Google и Apple всегда работают над улучшениями своих голосовых помощников, хотя обычно они не слишком-то вникают в технические особенности. В документе, представленном исследователями из провинции Чжэцзян, рекомендуется переделать микрофоны устройства, чтобы ограничить входной сигнал в ультразвуковом диапазоне, который не могут слышать люди, или заблокировать неслышимые команды, выявляя и отменяя конкретный сигнал.

Авторы также предложили использовать возможности машинного обучения для распознавания частот, вероятно, используемых в мошеннических атаках, и для изучения различий между неслышимыми и слышимыми командами.

В дополнение к этим вариантам быстрого усовершенствования алгоритмов работы, необходимо будет решить проблемы безопасности и эффективности технологии распознавания голоса на законодательном уровне. В настоящее время в большинстве стран нет национальной законодательной или нормативной базы для голосовых данных и прав на неприкосновенность частной жизни.

Тем не менее, первые шаги уже сделаны. Калифорния была первым штатом, принявшим закон, ограничивающий получение и продажу голосовых данных потребителей. Но он относится только к голосовым данным, собираемым с помощью ИИ-телевизоров.

По мере того, как растет количество вариантов использования голоса, возрастает и риск мошенничества. Создание подходящих аудиофайлов намного проще и быстрее, чем клонирование кредитной карты или копирование чьего-либо отпечатка пальца с помощью силикона. Это означает, что голосовые данные могут быть целью преступников.

Как защитить свое голосовое устройство

Да, сейчас риск перехвата голосовых команд кажется чем-то очень гипотетическим и практически не реализуемым. Но предпосылки для такого мошенничества есть. И они весьма весомы. Кроме того, описанные выше способы получения доступа к устройствам и эксперименты показали нам, что мошенники быстро приспосабливаются к новым технологиям.

Целесообразно следовать правилам безопасности, которые помогут защитить ваши устройства от взлома. Вот несколько советов:

  • используйте надежные, уникальные пароли для своих голосовых устройств;
  • не оставляйте смартфон разблокированным, если вы им не пользуетесь;
  • с помощью PIN-кода защитите задачи голосового помощника, связанные с вашей безопасностью, личными данными, финансами или медицинскими записями. А лучше просто не связывайте эту информацию с устройствами голосового управления.

Исследования "беззвучных" голосовых команд и связанных с ними рисков все еще являются "новинкой". Тем не менее технологические компании осознали, что каждое новое усовершенствование дает мошенникам все новые и новые возможности. По мере того, как все больше исследователей проливает свет на слабые места ИИ по распознаванию речи, отрасль имеет возможность сделать свои продукты безопаснее.

Следите за типами информации, которой делитесь с Alexa, Siri, Cortana и другими голосовыми помощниками и ваши данные будут в безопасности!

По материалам VentureBeat