Анна Балабанова
©

Стивен Хокинг опасается, что ИИ сможет полностью заменить людей

Известный физик-теоретик Стивен Хокинг считает лишь делом времени, когда человечество будет вынуждено оставить Землю в поисках нового пристанища. Он не раз указывал на то, что выживание человека как вида во многом будет зависеть от его способности к ассимиляции и межпланетной миграции.

Точка невозврата пройдена

По мнению Хокинга, поиск “второго дома” для человечества связан не только с неконтролируемым ростом рождаемости, но и с нависшей угрозой развития ИИ до Сверхразума, который попросту заменит человека.

Стивен Хокинг
Стивен Хокинг
“Мы выпустили Джинна из бутылки. И я боюсь, что ИИ вскоре не просто превзойдет человека в каких-то умениях, а полностью заменит его», – говорит ученый.

Это далеко не первый случай, когда Хокинг озвучивает подобные пугающие прогнозы. Еще в марте этого года в интервью для The Times он заявил, что ИИ-апокалипсис уже близок и создание «какой-либо формы мирового правительства» является необходимостью для управления современными технологиями. В противном случае ученый предрекает рост безработицы и начало третьей мировой войны. В связи с чем призывает руководителей развитых государств к прямому запрету использования автономных машин в военной сфере.

Но, по-видимому, его предупреждения не были услышаны (или просто проигнорированы), ведь интеллектуальные машины все больше занимают “человеческие” рабочие места, а такие страны как США и Россия, так и не оставили проекты по разработке ИИ-оружия.

“Точка невозврата пройдена!” – заявил ученый в своем недавнем интервью для WIRED.

Новая форма жизни

В последние годы тема развития ИИ стала широко освещаться в массах. Многие выдающиеся личности, связанные с IT, также высказываются в поддержку ограничения ИИ. В частности Илон Маск и Билл Гейтс выступили с заявлением, что при нынешних темпах развития, ИИ неизбежно приведет к концу человечества.

С другой стороны, некоторые эксперты считают, что подобные “страхи” надуманны и лишь искажают общественное восприятие передовых интеллектуальных технологий.

Что касается Хокинга, то он заявляет:

«Если люди могут создавать сверхсложные компьютерные вирусы, то что помешает кому-то создать ИИ, который окажется лучше создателя?! И, когда он впервые реплицирует себя, то это ознаменует появление новой формы жизни, значительно превосходящей человека!»

По-видимому, Хокинг имеет в виду развитие ИИ до сверхразумного существа, которое будет способно "думать". В научной среде данное событие называют технологической сингулярностью. Предположительно, она настанет в течение следующих 100 лет (срок, который Хокинг определил для жизни человечества на Земле). В свою очередь генеральный директор SoftBank Masayoshi Son и главный инженер Google Ray Kurzweil не столь оптимистичны в своих прогнозах и дали человечеству всего 30 лет для привычного существования.

Единственное, в чем пока сходятся противоборствующие стороны: результаты развития ИИ не может предсказать никто. Но это не означает, что оно принесет нам погибель. Не исключен сценарий мирного сосуществования людей и машин в новой эре. В любом случае, потенциал ИИ необходимо использовать с большой осторжностью, особенно в благих целях.

Источник: futurism.com