Коля Сулима
guerrilla radio

Искусственный интеллект — расист и шовинист

Искусственный интеллект — расист и шовинист
©Google, LLC

Оказывается, в американском суде используют алгоритм, чтобы решить, заключать подозреваемого под стражу или оставить на свободе.

А ещё, чтобы определить размер денежного залога (в США можно внести деньги и выйти до суда, пока идёт следствие). Задача судьи – понять, опасен ли подозреваемый для общества, и станет ли он рецидивистом. То ли, чтобы разгрузить судей, то ли чтобы суждение выглядело непредвзятым, американцы разработали алгоритм, решение о залоге или заключении под стражу принимает искусственный интеллект. Разработчики не раскрывают точного механизма принятия решения, это коммерческая тайна, говорят только, что пользуются сложными расчётами на основе баз данных и статистическими массивами.

Компьютер считает, что по статистике ты скорее всего станешь рецидивистом? Плати крупный залог или отправляйся в тюрьму. Это называется «Прогностическая полиция».

Видели кинофильм «Особое мнение» с Томом Крузом? Идея та же: ИИ арестует подозреваемого ДО преступления, рассчитав время и место.

©Google, LLC
©Google, LLC

В жизни же очень скоро оказалось, что американский ИИ решает в пользу белых. С чёрных подозреваемых требовали бОльший залог, и именно они чаще отправлялись на нары. При равных шансах совершить преступление, статистика работает против чёрных подозреваемых, в среднем по США их куда чаще подвергают аресту, досмотрам, против них чаще применяют насилие. Американская полиция, к сожалению, больна расизмом, а поскольку судебный ИИ пользуется расово искажённой статистикой, в итоге опять достаётся меньшинствам.

Так, нежданно-негаданно, искусственный интеллект оказался расистской сволочью.

Пойдём дальше. Пару лет назад, Google провёл глобальную игру «Quick, draw!» (Рисуй скорее!). Цель её в том, чтобы рисовать всем известные вещи – предметы, людей, животных – за двадцать секунд. Играли миллионы человек, а их каракули Google вносили в базу данных изображений для своего ИИ. Интернет-пользователи сделали восемьсот миллионов рисунков, чтобы «помочь тренировать машинный интеллект Гугл и создать открытую базу данных для разных культур и точек зрения».

Результаты тоже получились неожиданными: образ «обувь» ИИ определил, как условные конверсовские кеды, а деловые туфли, туфли на каблуке и другие варианты проигнорировал. Так вышло из-за того, что американцы играли куда больше остальных, а они представляют себе обувь именно спортивной и никакой другой. «База данных культур» получилась, в основном, американской, за численным преимуществом.

©Google, LLC
©Google, LLC

Плохие новости у меня и для тех, кто борется за русские феминитивы (чуть не написал «борцов», но удержался).

К словам «директорка» или «психологиня», Google выдаёт ссылки на изображения с белорусских, украинских или балканских ресурсов, но не русскоязычных. В этих языках феминитивы куда больше распространены, натуральны и давно в обиходе. Русский язык очень далёк от гендерного равноправия. И наоборот, если искать изображения по слову «стюард» вместо привычного «стюардесса», в выдаче получите фото охранников на стадионах и парочку историй о гей-проводниках. Мужчина-стюард пока что такой же оксюморон, как и «президентка».

Искусственный интеллект оказался сексистом и шовинистом.

Разработчики «Quick, draw!» поняли, что произошло и пишут о том, что будут повышать «инклюзивность» своей игры - включать в базу данных не только «конверсы», но и другие туфли. В человеческом обществе, борьбу за свою инклюзивность придётся вести самим «другим туфлям» - расовым меньшинствам, LGBT и так далее, потому что остальную часть человечества вполне устраивает нынешнее положение вещей.

©Google, LLC
©Google, LLC

В странах прогрессивных эта задача вполне решаемая, чего не скажешь о постсоветском пространстве. Ценность человеческой жизни в наших краях традиционно стремится к нулю, а на право личного выбора вообще срать хотели. Даже в Минске тебя могут убить потому, что ты гей, а убийца выйдет по амнистии через пару лет.

И я даже не стану упоминать т.н. «традиционные общества», или те, где убивают из-за религиозной нетерпимости, говоря без обиняков. Только представьте, как будет выглядеть искусственный интеллект, воспитанный в Иране.

Таков сегодняшний день ИИ: у него прежнее, человеческие взгляды, ведь он не более, чем копия нашего опыта. Расизм, сексизм, ксенофобия, гомофобия, религиозная ненависть. Мне пока не попадалось статей о компьютерном антисемитизме, но я, наверное, просто плохо искал.

ИИ усвоил миллионы гигабайт данных, придя к выводу, что чёрные и латино опасней белых, семья – это женщина и мужчина, а бабы - дуры и должны стоять у плиты. Теоретически, можно убедить алгоритм Google в том, что Земля плоская, просто никто пока всерьёз не взялся.

Давайте, что ли, начнём рисовать другие туфли, пока нас не начали арестовывать за неправильный разрез глаз.

©Google, LLC
©Google, LLC