Генератор слов

Правильная мотивация при создании ИИ может изменить мир, а не уничтожить его

Правильная мотивация при создании ИИ может изменить мир, а не уничтожить его
© Hacker Noon

Над чем работают лучшие специалисты в области ИИ? Это оружие, слежка, сокращение рабочих мест. Вместо того чтобы избавить мир от голода, очистить океан или излечить рак, они разрабатывают изощренные способы убийства и заставляют людей покупать товары, которые им в действительности совершенно не к чему.

В результате мы слишком часто тратим силы самых творческих людей на планете на самые тривиальные и смешные проблемы.

Лучшие умы моего поколения думают о том, как заставить людей кликать на рекламу. Это отстой, — сказал ученый Джеффри Хаммербахер, основатель компании-разработчика связующего ПО Cloudera.

Это не просто ужас, это огромная гуманитарная катастрофа.

Разумеется, лучшие из лучших в области разработок могут позволить себе заниматься тем, что им действительно нравится. Однако в действительности людей, которые могут позволить себе такой творческий полет очень мало. Фактически, существует не так много «чистых» исследовательских организаций. Причина проста — компания или научно-исследовательская организация должна достигнуть определенного успеха, чтобы получить возможность инвестировать средства в долгосрочные проекты, которые, вероятно, так никогда и не окупятся.

Google является одной из этих компаний, а OpenAI — еще одна. Университет Торонто поддерживал небольшую область нейронных сетей в течение десятилетий, когда казалось, что она никогда не сможет решать проблемы реального мира. Наряду с ними есть и другие компании и научно-исследовательские институты, но их не много.

© Mediasat

Дело в том, что для спонсирования реальных, полезных исследований, связанных с изменением цивилизации в лучшую сторону, нужны лишние деньги. А деньги, как известно, лишними не бывают.

Обычные люди, не слишком везучие и не обладающие достаточной квалификацией, чтобы претендовать на вакансии, в рамках которых можно было бы заниматься полезными научными разработками, вынуждены довольствоваться менее благодарной работой.

Чтобы жить, люди должны работать, и они идут туда, где есть деньги, чтобы прокормить их семьи. Даже если эти компании занимаются разработкой оружия или рекламы. Проблема находится в самом сердце экономики.

© LifeGlobe

Стимулы правят миром, ведь все сводится именно к выгоде и мотивации. Например, сейчас не выгодно избавиться от голода и бедности, не выгодно решать экологические проблемы, ведь они не принесут деньги. На этом не заработаешь состояние.

Все сводится к стимулам. Но что, если мы можем изменить эту мотивацию? Что, если мы сможем заставить величайших исследователей ИИ повернуть их блестящие умы в сторону важнейших проблем на лице планеты? А ведь мы можем. 

Чтобы понять это, вам просто нужно понять немного о «черном ящике», конкурсах и природе кентавров. Звучит безумно, не так ли?

 Морковь или палка

© Нacker Noon

В наши дни ИИ вызывает негативные ассоциации. Будь-то машины, которые вытесняют нас с рабочих мест или сверхразумные роботы-убийцы, которые уничтожают человечество в гипотетическом будущем — все это пропитано страхом. А страх, как ни странно, отлично продается. Однако чем больше думаешь об искусственном интеллекте, тем более очевидным становится тот факт, что дело совсем не в машинах, а в нас.

Как сказал ветеран-морпех в документальном фильме Кена Бернса о Вьетнаме:

 Люди не стали доминирующим видом на планете, потому что мы хорошие.

Да, в некоторой степени мы хорошие, способные на самопожертвование, оптимизм и даже героизм, однако, наряду с этим, мы — безжалостные убийцы, самые жестокие из всех, что живут на планете. Признанные «монстры» животного мира, такие как львы, тигры и волки, — по сравнению с нами просто плюшевые игрушки, ведь только человек может убивать ради развлечения и корысти. В мире есть только один источник зла, и это — мы с вами.

© FB.ru

При этом искусственный интеллект станет именно тем, чем мы его сделаем. Мы — архитекторы, тренеры и родители наших будущих творений. Мы получаем то, что вкладываем. ИИ будет и добрым, и злым, потому что мы такие. Но как мы склоним эту чашу весов, чтобы сделать ИИ больше злым или добрым?


Сначала нам предстоит разработать машины, которые будут работать с нами, а не против нас. Мы хотим всячески расширить наши возможности. Это не так хорошо, как кажется. Все потому, что машины и люди хороши в самых разных областях.

Хотя популярное восприятие ИИ сводится к всезнающему интеллекту, подобно очень умному Эйнштейну, который способен помочь с любыми вопросам, но на самом деле это не так, как кажется на первый взгляд. Эйнштейн понимал математику вселенной, но он не смог бы точно бросить мяч в бейсбольную корзину, даже чтобы спасти свою жизнь.

© Stmegi

Вы можете подумать, что между интеллектом, математикой и бейсболом нет никакой связи, и ошибетесь. Это высокоспециализированный, четкий интеллектуальный расчет, позволяющий бросать мяч в корзину с точностью до миллиметров.

При этом ни один алгоритм не работает одинаково хорошо для решения различных задач. Иными словами, нельзя одновременно быть гениальным во всем, если вы считаете, что хороши во всем, значит, вы ни в чем не хороши.

Чтобы быть действительно хорошими в чем-то, на чем мы специализируемся, нужно долго этому учиться. Вот почему тигр «оптимизирован» для охоты и бега, а собака отлично играет с мячом или охраняет двор. Автор Ники Кейс (Nicky Case) красочно описывает это в своей удивительной статье «Как стать кентавром»:

Интеллект должен специализироваться. Интеллект белки специализируется на том, чтобы быть белкой. Человеческий интеллект специализируется на том, чтобы быть человеком. И если у вас когда-либо было разочарование от тщетных попыток выяснить, как отвадить белок от кормушек для птиц, вы знаете, что даже белки, в некотором роде, могут перехитрить людей. Это может быть обнадеживающим признаком: даже люди будут продолжать превосходить компьютеры по некоторым параметрам.
© Мастерок.жж.рф - LiveJournal

Идем дальше и рассмотрим увлекательную историю о том, как Гарри Каспаров проиграл ИИ-сопернику — Deep Blue. Эта часть истории, вероятно, известна всем — компания IBM построила шахматный суперкомпьютер, который в 1997 году выиграл матч из шести партий у одного из величайших гроссмейстеров. Но то, что произошло дальше, еще более увлекательно. Гарри начал представлять, что произойдет, если ИИ и люди будут работать вместе.

Когда дело дошло до «шахматного противостояния», Каспаров понял, что люди хороши в интуиции и долгосрочной стратегии, в то время как компьютеры сильно превосходят их в тактике, вычислениях и расчетах. Поэтому он решил провести новый турнир в следующем году, и сделал так, чтобы люди работали вместе с машинами.

Он назвал его «шахматы кентавра», в честь полулюдей-полуконей из греческой мифологии. 

© Коммерсант

Каспаров пригласил «всевозможных конкурсантов» — суперкомпьютеры, гроссмейстеров, смешанные команды людей и ИИ — состязаться за главный приз. Неудивительно, что «кентавр» в виде человека+ИИ побеждал команды, где были только люди.

Но, что поразительно, команда Человек+ИИ также побеждала «одинокий» компьютер без команды. Работая вместе, мы можем сделать гораздо больше, чем по отдельности.

И вот мы приходим к первому шагу — создание машин, которые играют в пользу наших сильных сторон, делают то, что человек не может сделать хорошо. Стройте машины, которые работают с нами, а не против нас, такие ИИ, которые будут нашими усилителями труда, а не станут замещать нас на рабочем месте.

Но второй шаг сложнее.

Он восходит к нашим стимулам, которые формируют наш мир и предопределяют действия. И сейчас наши стимулы безнадежно рушатся. Мы заинтересованы в том, чтобы шпионить за людьми и заставлять их кликать на рекламу. Чтобы изменить это, мы должны изменить саму структуру построения бизнеса. Чтобы изменить мир, мы должны изменить вводные данные или получим тот же результат.

Вне черной коробки

Прежде чем мы сможем изменить мир, нам нужно понять, насколько важны эти стимулы для формирования нашей реальности. С правильными мотивами все возможно. С неправильными мотивами мы получаем порочный круг, который разрушает все, к чему прикоснется.

Невероятная книга Black Box Thinking раскрывается перед нами поразительным уроком о том, насколько правильные или неправильные убеждения изменяют мир. В книге рассказывается о двух трагедиях: в авиационной отрасли и в здравоохранении.

Одна отрасль узнала о своих недочетах и признала их, а другая продолжала повторять одни и те же ошибки снова и снова.

© NearSt

В 1973 году рейс 173 авиакомпании United Airlines вылетел из Международного аэропорта имени Джона Кеннеди в Нью-Йорке, самолет направлялся в Портленд. Ветеран полетов, Мельбурн Макбрум (Malburn McBroom), седой, пятидесятидвухлетний капитан, был у штурвала. У него было двадцать пять лет опыта работы.

Все шло гладко, пока они не начали приземление. Макбрумпотянул рычаг, чтобы выпустить шасси, как делал до этого тысячу раз. Потянув этот рычаг, он должен был услышать, как открываются дверцы, выпуская шасси, и знакомый механический скрип колес, спускающихся вниз и заканчивающийся щелчком, когда они запираются на месте.

Но на этот раз все было по-другому. Громкий удар встряхнул самолет, и он качнулся. Все нервно озирались. Что сейчас произошло? Опустилось ли шасси или упало в океан, простирающийся внизу?

Макбрумпроинформировал диспетчерскую башню что им нужно больше времени, и они отправились обратно, повернув налево. Они заставили самолет кружить над пригородами Портленда. А время все шло и шло, Макбрумтерзался мыслями о том, что делать дальше. 

Экипаж провел все необходимые проверки, но они не могли быть уверены, что шасси действительно спустилось. Они отправили инженера посмотреть, не видел ли он болтов, которые видны над крылом, когда шасси было опущено. Они были, но Макбрум продолжал кружить. Он не мог быть уверен в том, что шасси на месте, ведь зеленая лампочка не загорелась.

Время летело все быстрее и быстрее, как вдруг появилась новая проблема — у них не было топлива. Недаром говорят, что беда не приходит одна. Инженер просил пилота приземлиться, но он стал одержим. Он продолжал крутиться и думать, почему зеленый свет не загорелся.

Поразительные, странные вещи происходят с нашим разумом, когда мы находимся под действием стрессов. Границы времени становятся размыты. Ощущение времени и пространства пилота совершенно «распадалось». Независимо от того, насколько сильно команда торопила его, он продолжал кружить в небе. А потом у них кончилось топливо.

Они рухнули, но даже из такой ужасной трагедии вышел отличный жизненный урок, который навсегда изменил представления авиакомпаний о безопасности пассажиров. До этого крушения у них был ужасный послужной список. Теперь у компаний один из лучших показателей безопасности среди всех отраслей в мире. Сегодня вы, вероятнее, умрете от удара молнии, чем в связи с авиакатастрофой.

Авиакомпании начали обучать пилотов тому, как нужно действовать в экстренных ситуациях. Они обучили младших офицеров навыкам управления, чтобы они могли взять на себя командование в случае непредвиденной ситуации.

Они создали новые правила. Если люди, участвующие в катастрофе, совершенно открыто сообщают все подробности в течение двух недель после крушения, ничто из этого не может быть использовано против них в суде.

То же самое касается и следственной группы. Когда происходит авария, команда следователей прибывает на место происшествия и осматривает все, сантиметр за сантиметром. Ничто не может быть использовано в суде. Вместо этого они свободно делятся данными с другими авиакомпаниями и публикуют отчет о рекомендуемых изменениях в безопасности. Это позволяет решить проблему даже до ее возникновения.

Резким контрастом относительно такой молниеносной реакции авиакомпаний выступает медицинская отрасль. Вместо стимулов, которые побуждали бы людей к улучшению показателей безопасности, они построили систему, полную лжи и тайн.

Культура лживых лжецов

29 марта 2005 года Элейн Бромили отправилась на операцию. Это произошло через несколько дней после Пасхи. Ее муж, Мартин, проснулся в 6:15 утра и разбудил детей, Викторию и Адама. «Это было дождливое весеннее утро», и «дети были в отличном настроении».

Элейн была хрупкой тридцатисемилетней женщиной, работающей в индустрии туризма. Она страдала от запущенной проблемы носовых пазух в течение многих лет, и, наконец, решила позаботиться о ее решении раз и навсегда. У ее врача был тридцатилетний опыт, он обладал отличной репутацией, перед операцией он успокоил женщину:

Не волнуйтесь, это обычная процедура с минимальным риском.

К 7:15 Мартин усадил детей в машину, и они вместе отправились в больницу. Доктор в легкой, спокойной и профессиональной манере задал семье несколько простых вопросов. Элейн села в кресло в синем больничном халате и шутливо спросила у дочки:

Как я выгляжу?

К 8:30 пришла медсестра, Джейн, и забрала Элейн в операционную для проведения наркоза. Сын махнул рукой вслед маме. Ее муж повел детей за покупками в магазин, собрав все необходимые продукты для приготовления вкусной домашней еды.

© Видное Информ

В то время в манипуляционной Элейн находилась в руках анестезиолога, доктора Андертона, обладающего шестнадцатилетним опытом, который уже ввел ей в вену иглу от капельницы с седативным препаратом.

Но!

Анестетики — это мощные наркотики. Они не просто усыпляют пациента; они также отключают многие жизненно важные функции организма, которые должны управляться искусственно.

Когда вы находитесь под глубоким наркозом, то лишаетесь возможности даже дышать самостоятельно. Для поддержания дыхания врачи используют ларингеальную маску, которая, захватывая горло, помогает легким выполнять свою жизненно важную работу.

Анестетики действуют на всех по-разному, но некоторые люди страдают от их действия сильнее других. И Элейн была одной из них. Когда доктор Андертон подошел, чтобы надеть маску, он не мог вставить дыхательную трубку ей в горло. Ее мускулы сжали челюсти. Обычно усиленная доза расслабляет их, но на этот раз прием не сработал.

Он попробовал меньшие маски, но они тоже не помогли. Через две минуты Элейн напряглась, ее лицо стало ярко-синим. Врач перешел к плану В, «трахеальной интубации». Он использовал мощный паралитический препарат, чтобы все таки разжать челюсти и ввести трубку в горло. Препарат сработал, но медик столкнулся с новой проблемой — горла было не видно. Его закрывало «мягкое нёбо» — редкая генетическая патология, при которой нёбо «раздваивается», частично перекрывая глотку.

Как бы врач не старался, вставить трубку ему не удавалось. Ситуация быстро изменилась. Младшая медсестра, Джейн, уже была готова помочь доктору в проведении последней возможной реабилитационной процедуры, трахеотомии, позволяющей запустить трубку в горло напрямую, через проделанный разрез.

Но на нее никто не обращал внимание, она так и продолжала ошеломленно стоять с набором для проведения операции, наблюдая за тщетными попытками вставить трубку в рот пациентки. Она думала:

Может, это будет моя вина, если что-то пойдет не так? Может быть, они отказались от трахеотомии по какой-то причине?

Она не хотела брать на себя такую ответственность. Кроме того, здесь были врачи, авторитетные и опытные. А она была лишь младшим медицинским сотрудником. Поэтому она осталась на месте, не высказав свое мнение.

В 8:55 стало уже слишком поздно. Элейн погрузилась в глубокую кому, а ее мозг испытывал кислородное голодание уже в течение двадцати минут. Женщину перевели в реанимацию, а спустя 30 дней она скончалась.

Поражает контраст реакций между сотрудниками авиакомпаний и врачами. Тогда доктора заявили о неустановленной причине смерти и назвали этот случай единичным. Печально то, что такая практика распространена повсеместно, ведь если специалист признает свою ошибку, то на него сразу же обрушатся иски от родственников потерпевших, а вместе с врачом пострадает и репутация больницы.

В жестоком медицинском мире такие «младшие» сотрудники как медсестра Джейн прекрасно знают свое место — оно на самом дней «пищевой» цепочки больницы. Они существуют в строгой иерархии и, при нарушении субординации, могут быть тут же уволены, лишившись возможности получить хорошую работу. 

Именно поэтому никто не рассказывает о том, что происходит в стенах операционных, а между тем это происходит снова и снова. Вместо того чтобы учиться на собственных ошибках, врачи «прикрывают» друг друга, поощряя лгать еще больше. Это и есть сила стимулов.

При правильных стимулах люди растут и развиваются в лучшую сторону, она решают проблемы, становятся быстрее, умнее и сильнее. А если стимулы неправильные, тогда одни и те же ошибки повторяются многократно, несмотря на то, что их можно было бы избежать. Мы живем в безумном мире, который так часто стимулирует неправильные вещи. Измените стимулы, и мы изменим всю систему. Но как такое возможно?

Конкурсы, в которых мы участвуем

У нас уже есть шаблоны — конкурсы. Рассмотрим несколько уже запущенных проектов, предназначенных для решения самых разнообразных вопросов. Kaggle проводит конкурсы с денежными премиями, чтобы собрать лучших в мире специалистов по данным для решения реальных проблем.

Ресурсу удалось добиться реальных изменений в ряде существенных, сложных проблемы, таких как обнаружение рака легких. Проект Data Science Bowl 2017 года предлагал $1 млн любому, кто смог бы разработать систему, которая бы эффективнее обнаруживала опухоли при. Перед началом этих «соревнований» вероятность ложноотрицательного обнаружения составляла почти 90%. Это значит, что многие люди не получали правильного лечения или получали лечение слишком поздно.

© markonomia.com

Победители конкурса значительно улучшили качество диагностики даже при небольшом количестве информации. 

Доказано, что конкурсы могут менять жизнь к лучшему, и также доказано, что лучшие ученые-аналитики хотят решать реальные проблемы, а вместо этого вынуждены заставлять людей переходить по рекламным ссылкам. Финалист, занявший второе место в конкурсе, написал:

Мы были больше воодушевлены надеждой на то, что наше решение этой проблемы будет полезным, а не желанием просто выиграть немного денег на конкурсе — надеюсь, это решение будет использовано, чтобы помогать людям.

К сожалению, существует не так много конкурсов, связанных с лечением рака с призом в $1 млн. Конкурс Kaggle этого года также имеет цель помочь в лечение этой страшной патологии, но приз здесь уже не $1 млн, а всего $50 тыс.

Дело в том, что люди мотивируются одновременно и деньгами, и желанием сделать что-то полезное. Однако именно финансовая выгода, зачастую, определяет путь развития. Именно поэтому больший бюджет, естественно, привлекает перспективных специалистов в отрасли, которые реально могут помочь.

Чтобы провести конкурс на Kaggle, нужно быть одной из успешных компаний, у которой есть лишние деньги или уже подписан выгодный контракт. Data Science Bowl 2017 года спонсировался корпорацией Booze Allen Hamilton. И можно поспорить, что у них был контракт на сумму $100 млн с какой-либо медицинской диагностической компанией, если они предлагали ученым такой большой приз. Как мы уже видели, такие деньги редко ставятся на кон в таких конкурсах.

Конечно, Kaggle — не единственная площадка для проведения конкурсов. Алгоритмическая база Algorithmia недавно спонсировала конкурс на Kaggle. Они разработали автоматизированный смарт-контракт с использованием Ethereum, который может полностью автономно тестировать, проверять результаты и отдавать приз без какого-либо вмешательства человека. Это инновационная попытка создать программируемую экосистему для решения таких задач. Как отметили в Venture Beat:

Этот конкурс действительно является доказательством концептуальной проверки системы, которая позволить кому-либо создавать свой собственный смарт-контракт для решения конкретной задачи. Это поможет организациям, которые хотят применить ИИ для решения конкретных вопросов, но не располагают ресурсами для найма ученого-аналитика, специализирующегося на ИИ. Методика, предложенная Algorithmia, не требует, чтобы участники доверяли друг другу (поскольку все компоненты контролируются контрактом), и он автоматизирует выплату вознаграждения.

Конечно, Algorithmia не лишен тех же проблем, что и Kaggle. К примеру, для проведения такого конкурса вам все еще требуется кто-то с финансовыми средствами, чтобы предложить вознаграждение.

А богатые люди не тратят свои деньги на очищение океана.

Итак, мы снова возвращаемся к вопросу о стимулах. У людей есть стимулы для расширения бизнеса и увеличения богатства, но никак не для спасения нашей планеты. Но ключ к окончательному утверждению нашей разрушенной экономики — это всего лишь цепочка последовательностей.

© Relativity

Эта цепочка начинается с небольшой известной компании под названием Numerai, в прошлом году она собрала миллионы посредством ICO для создания ИИ хедж-фонда.

Numerai использует текущие конкурсы ИИ, которые платят победителям собственной специальной криптовалютой. Конкурсные данные частично зашифрованы, поэтому аналитики точно не знают, над решением какой проблемы работают. Однако не нужно быть гением, чтобы понять, что компания разрабатывает способы эффективного обмена хедж-фондами. Каждые несколько недель ставится новая задача, и ученые-исследователи «слетаются», чтобы посоревноваться за решение проблемы.

По нескольким показателям это гениальный подход, однако, фактически идея расходуется на вполне тривиальные вопросы. Вместо того чтобы вместе думать над тем, как решить глобальные проблемы, мы используем этот инструмент, чтобы заработать больше денег.

Это не значит, что нужно перестать зарабатывать деньги. Нет. Но если заработок — это единственное, на что мы планируем расходовать мощный потенциал криптовалют и ИИ, то можно остановиться прямо сейчас, потому что это, в гипотетической плоскости, только усугубит проблему. А ведь мы можем и даже должны достигнуть гораздо большего.

Здесь ответ кроется на самой поверхности. Первые криптовалюты, такие как Bitcoin, появились после осознания того, что можно «печатать деньги» и без участия государств. Они попадают сразу потребителям, обходя централизованные банки. Итак, измените способ распределения денег, и изменится абсолютно все.

Основная проблема, связанная с Kaggle и Algorithmia, заключается в том, что они должны покупать или заимствовать финансовые средства. При этом у других компаний уже имеются средства и им нужно конвертировать их. Работники Numerai выяснили, что они могут печатать собственные деньги и сбывать их в условиях конкурса. Для эффективной работы такого механизма ключевым аспектом является природа конкурса.

Давайте построим криптовалютную платформу и DAO (Data Access Object), посвященные решению наиболее значимых проблем современного мира. Подумайте об этом в контексте общественного доверия, благотворительности и инвестиционных проектов.

Такого рода проблемы будут представлены на консилиумах ученых, футуристов и мыслителей или выноситься на голосование общественности. Согласитесь, целесообразно распределять деньги между людьми, которые создают благо для всех нас.

Такая система майнинга и создания денег не только обеспечит средствами, но и будет открыта для пожертвований и инвестиций с целью дальнейшего усовершенствования и повышения надежности. В конце концов, все это делается, чтобы изменить мир к лучшему. И, поскольку, система создает собственные деньги для своих же целей, то она не должна ориентироваться на требования тех, у кого эти деньги уже есть.

Это сломает основу старой системы стимулов и создаст новую, которая будет ориентирована на общемировое благо для всех, а не только на заработок тех, кто управляет системой. Старая система хороша для нас только в настоящий момент и в недалеком будущем. Стоит понимать, что она была важна для нас в процессе эволюции. Она была эффективна с момента племенных общин и становления современного индустриального общества.

На данный момент человечество готово к новой системе, которая может решить те проблемы, которые старая никогда бы «осилила». И инструменты для воплощения этой идеи уже в наших руках. Но замысел удастся только в том случае, если у нас хватит на это смелости.

По материалам Hacker Noon

Один хлопок? Или же бурные овации? Хлопая больше или меньше, вы показываете, какой пост действительно чего-то стоит.
Анастасия Кириченко Генератор слов
Комментарии