Google учит ИИ обманывать людей для возможности учиться на их ошибках

Google учит ИИ обманывать людей для возможности учиться на их ошибках
Фото: TheNextWeb

Обманывать роботов, обучая их видеть предметы, которых не существует, или абсолютно неправильно классифицировать изображения – это все, конечно же забавно, пока кто-то не пострадает от того, что автопилот автомобиля посчитает, что белый грузовик – это облако.

Чтобы избежать подобных трагедий, очень важно, чтобы искусственный интеллект научился понимать саму природу этих нарушений. Это означает, что компьютеры должны стать умнее. Вот почему Google инициировал проведение одновременных исследований человеческого мозга и нейронных сетей.

До сих пор нейронаука в основном развивала искусственный интеллект в плоскости формирования нейронных связей. Теперь же идея исследования состоит в том, чтобы то, что не способно обмануть человека, не обмануло и ИИ.

В рабочую группу Google входит Ян Гудфеллоу – ученый, который специализируется на глубинном обучении машин. Недавно он опубликовал работу «Адверсальные примеры, которые дурачат как человеческое, так и компьютерное зрение». В ней указано, что методы, используемые для обмана ИИ для неправильной классификации изображения, не работают с человеческим мозгом. Он полагает, что эту информацию можно использовать для создания более устойчивых нейронных связей.

В прошлом году, разработчики MIT обманули ИИ Google, внедрив самый простой код в исходное изображение: так команда убедила нейронную сеть, что перед ней находится винтовка, хотя на самом деле на снимке была изображена черепаха. И большинство детей в возрасте трех лет смогли бы увидеть эту разницу. На самом деле проблема заключается не в работе ИИ Google, а в простой «загвоздке»: отсутствии глазных яблок у компьютеров. Машины не «видят» мир, они просто обрабатывают образы. И если кто-то стремится их обмануть, то подменяя части изображения (кода), ими очень легко манипулировать.

Чтобы исправить эту проблему, Google пытается выяснить, в чем именно заключается устойчивость человеческого мозга к определенным формам манипуляций с изображениями. И, что более важно – как можно обмануть человека при помощи изображения.

В рабочей документации проекта указано:

Когда мы точно определим, что человеческий мозг может противостоять определенному классу сравнительных образов, это даст направление для разработки аналогичного механизма для машинного обучения.

Чтобы человек вместо кота “увидел” на изображении собаку, исследователи увеличили масштаб картинки и скорректировали некоторые детали. Да, возможно, при беглом взгляде это и работает, но если присмотреться к изображению в течение нескольких секунд, то проявляется вполне узнаваемый образ. Таким образом исследователи пытаются выявить шаблоны, способные в некотором роде обмануть человека.

Бесспорно, в настоящее время никто не сравнится с людьми, когда дело касается опознания образов. Но в 2018 году на дорогах по всему миру планируется запуск полностью беспилотных автомобилей. ИИ “увидит” мир и то, насколько правильно он сможет определять каждый его объекта – станет уже вопросом жизни и смерти.

Один хлопок? Или же бурные овации? Хлопая больше или меньше, вы показываете, какой пост действительно чего-то стоит.
Комментарии