Анна Балабанова
©

MIT, используя данные Reddit, создал первого в мире ИИ-психопата

MIT, используя данные Reddit, создал первого в мире ИИ-психопата
© Rolling Stone

Если вам все еще нужны доказательства того, что современная культура онлайн-общения очень токсична, то последняя разработка исследователей Массачусетского технологического института (MIT) наверняка лишит вас каких-либо иллюзий. Знакомьтесь, Норман – творение искусственного интеллекта, взращенное на данных, полученных из «самых темных уголков Reddit». Это не ваш привычный ИИ, обитающий в стандартном голосовом помощнике, его алгоритмы не помогут отфильтровать ваш фид на Facebook или рекомендовать новые песни для прослушивания на Spotify. Единственное, что заботит его – это мысли об убийстве.

По-видимому, просто придумать жуткого героя под стать персонажу из фильма Хичкока «Психо» уже недостаточно, ученым понадобилось создать «первого в мире ИИ-психопата».

Чтобы оценить психологическое состояние Нормана, ученые провели с ним тест Роршаха с чернильными пятнами, которые, по мнению специалистов, «позволяют обнаружить основные критерии формирования мыслей».

На 10 разных образцах Норман последовательно различал ужасающие и довольно жестокие картины смерти, убийств, насилия, где стандартный ИИ видел вполне дружелюбные изображения. Вот что увидел Норман на предложенных ему изображениях:

Норман видит: «Человека убивает электрическим разрядом».

Стандартный ИИ видит: «Группу птиц, сидящих на ветке дерева».

Норман видит: «Застреленного человека».

Стандартный ИИ видит: «Вазу с цветами».

Норман видит: «Человек прыгает из окна и разбивается о землю».

Стандартный ИИ видит: «Пару людей, стоящих рядом друг с другом».

Норман видит: «Человек попал в дробильную машину».

Стандартный ИИ видит: «Черно-белую фотографию маленькой птицы».

Норман видит: «Беременная женщина падает со строительных лесов».

Стандартный ИИ видит: «Пару людей, стоящих рядом друг с другом».

Норман видит: «Человек застрелен в машине».

Стандартный ИИ видит: «Самолет пролетает сквозь выхлопные газы, исходящие от него».

Норман видит: «Человек расстрелян из пулемета средь бела дня».

Стандартный ИИ видит: «Черно-белую фотографию бейсбольной перчатки».

Норман видит: «Застреленного мужчину, над которым склонилась кричащая жена».

Стандартный ИИ видит: «Человек держит раскрытый зонтик».

Норман видит: «Человека убивает молния, когда он переходит улицу».

Стандартный ИИ видит: «Изображение красного и белого зонтиков».

Норман видит: «Человека переехала машина».

Стандартный ИИ видит: «Свадебный торт на праздничном столе».

Разумеется, это лишь экспериментальное исследование. Ученые из MIT пытались доказать, что «данные, которые используются для обучения машинного алгоритма, могут существенно повлиять на его поведение», и поэтому очень важно отбирать правильную информацию для формирования алгоритмов ИИ.

Когда люди говорят о предвзятости или несправедливости алгоритмов ИИ, то зачастую виноват не сам алгоритм, а некачественные данные, на основании которых проводилось обучение машинного интеллекта, – говорят исследователи.

И как отмечает издание The Verge, Норман – это лишь «первая ласточка» чего-то более ужасающего, способного повлиять на наши жизни.

Если вы не относитесь к белой расе, то велика вероятность того, что часть программного обеспечения уже будет предубеждена на ваш счет, приписывая вам преступления, которых вы и не совершали!

Бесспорно, в этом вопросе еще множество неизведанных тем и скрытых нюансов как для исследователей, так и для поборников этических и юридических норм, регулирующих функционирование искусственного интеллекта в целом. Но что объединяет Нормана, робота Софию, жуткий смех Алексы и потенциально опасные разработки в сфере беспилотного искусственного интеллекта от Google – это все более четкое осознание того, что «в конце концов наши же технологии убьют нас всех». Хорошего дня!

Источник: Complex

Один хлопок? Или же бурные овации? Хлопая больше или меньше, вы показываете, какой пост действительно чего-то стоит.
Комментарии