Что The Guardian думает об Искусственном Интеллекте

Что The Guardian думает об Искусственном Интеллекте

Это перевод колонки редактора The Guardian view on the future of AI: great power, great irresponsibility, опубликованной в газете The Guardian 01 января 2019 года.

ВВеликая сила, великая безответственность

Неприятная политическая ситуация сегодняшнего дня закрывает многие перспективы. В то время, как все праздновали рождественские праздники, специалисты из The Guardian рассмотрели дальнейшие перспективы развития Искусственного Интеллекта.

Если вы вспомните всё то, что произошло в 2018 году, у вас возникнет вопрос: «А кто виноват во всех неудачах Искусственного Интеллекта? Человеческая глупость или несовершенство алгоритмов». По отдельности это не так страшно, но вот вместе эти два фактора превращаются в разрушительное и очень опасное явление.

Искусственный Интеллект — это термин с постоянно изменяемым значением. Оказывается, что компьютеры умеют делать то, что когда-то могли делать лишь самые светлые умы этого мира. Но вот парадокс. Искусственный Интеллект не может справиться с простейшими задачами, которые подвластны вашему соседу с незаконченным средним образованием.

На этом этапе термин используется в отношении машинного обучения, которое представляет из себя изучение машинами огромного объёма данных в поисках закономерностей. Это почти то, что может делать наш с вами мозг. Один из ярчайших примеров применения Искусственного Интеллекта в реальной жизни — беспилотные автомобили, которые распознают происходящее вокруг себя и действуют, исходя из полученной извне информации. Искусственный Интеллект является основой пугающих многих систем распознавания лиц, умных колонок и т. д. Также эта перспективная технология используется в маркетинге и рекламе, чтобы выявить наши самые слабые «болевые» точки.

ИИгра меняется

Китайское правительство использует машинное обучение для того, чтобы вершить свои политические репрессии. Сейчас в Поднебесной активно изучается программное обеспечение, которое позволяет предсказать изменения в общественном мнении, дабы избежать нежелательных разговоров и вспышек гнева в отношении правительства. В общем, китайские власти намереваются управлять общественным мнением и направлять его в нужное для них русло.

Но давайте поговорим о чем-то более приятном и важном для индустрии. В 2018 году произошло несколько действительно значимых событий. Первое из них — разработка Google DeepMind, которую научили играть в видеоигры и побежать настоящих игроков.

Система AlphaZero не способна выигрывать у людей во всех играх. Она может работать только с теми играми, которые предоставляют «точную информацию», известную абсолютно всем игрокам. Также было и с шахматами, где AlphaZero сумела побороть самую лучшую программу — Stockfish 8.

Самообучающиеся компьютеры — важнейшая веха в развитии разумной жизни на Земле. И знаете, кажется, что Искусственный Интеллект уже ожил.

Искусственный Интеллект способен принимать решения, руководствуясь теми факторами, которые могут быть непонятны внешнему миру. Искусственный Интеллект — это попугай, которого вознаграждают за каждое правильно выполненное действие. Так он и учится. Но его невозможно полностью воссоздать руками человека. Как это происходит с программным обеспечением, которое создается с нуля. Но не с нейронными сетями, используемыми во всех технологиях, которые мы привыкли называть Искусственным Интеллектом. Выводы для себя они делают сами, основываясь на причинах понятных только им.

ИИскусственный Интеллект: друг или враг?

Процессы, происходящие в «голове» у Искусственного Интеллекта могут быть интерпретированы так, чтобы это было понятно человеку. Постановление GDPR дает людям право знать, какие факторы привели к тому или иному решению программы, которое повлияло на их жизнь. Однако таких случаев в практике ещё не встречалось. Люди должны понимать «ход мыслей» Искусственного Интеллекта для того, чтобы использование новых инструментов было продуктивнее.

Компьютеры уже обогнали человека в диагностике онкологических заболеваний. Искусственный Интеллект может лучше анализировать данные, и выявлять закономерности. Но даже здесь технологию можно обучить тому, чтобы она составляла контрольный список факторов, приведших к определённому решению, который доступен для изучения человеком. Однако список вряд ли будет состоять из точной интерпретации тех факторов, какими руководствовался Искусственный Интеллект.

Существует довольно интересная проблема, которая заключается в том, что Искусственный Интеллект можно обмануть, добавив невидимые для человеческого глаза точки на рисунок рыбы, после чего алгоритм будет идентифицировать изображение как кошку или что-то другое.

Думаете, что изменение какого-то там рисунка никак не отразится на безопасности Искусственного Интеллекта? Как бы не так. Эта уязвимость может использоваться для подмены дорожных знаков STOP на знаки ограничения скорости. И Искусственный Интеллект камеры ничего не заподозрит. Звуковые файлы также могут намеренно искажаться, тем самым злоумышленники могут передавать неправильную информацию. Технология отпечатков пальцев на ваших смартфонах работает только благодаря Искусственному Интеллекту, который также может создавать искусственные отпечатки пальцев, действующие как скелетный ключ, позволяющий открыть большинство устройств.

ББорьба за власть

Вторым большим событием 2018 года стало упрощение работы с программным и мощным аппаратным обеспечением. Для того чтобы обучить нейронную сеть нужен огромный объём данных и вычислительных мощностей, но после завершения обучения она сможет работать даже на относительно дешевом железе. «Демократия» — скажете вы. «Анархия» — отвечают в The Guardian. Демократия обладает средствами принуждения к принятию решений, а анархия нет. Авторитарные государства и преступный мир являются двумя проблемами для демократизации и упрощения доступа к этой технологии. Искусственный Интеллект даёт нам новые безграничные возможности, взамен отнимая некоторые, которыми мы обладали ранее.