Анастасия Пашкевич
©

AI без маски: как искусственный интеллект собираются сделать более прозрачным

Фото: TED
Фото: TED

Миллионы людей ежедневно в какой-то форме сталкиваются с искусственным интеллектом (ИИ), и большинство из них делают это невольно — через приложения, которыми регулярно пользуются. Например, подсказки поиска Google, предложения возможных друзей в Facebook и автозамена текста выполняются с использованием технологии ИИ. Поэтому сейчас как никогда важно предпринимать глобальные усилия по повышению прозрачности ИИ, чтобы пролить свет на то, как эта технология работает и принимает решения, особенно в таких отраслях, как здравоохранение и финансы. Об этом в блоге TechCrunch пишет Крити Шарма — создатель первого в мире AI ассистента по бухгалтерскому учету.

Большинство пользователей наверняка согласятся с тем, что искусственный интеллект не должен быть выше закона, но в то же время технологии AI не должны подвергаться агрессивному регулированию. По крайней мере, пока не будет проведен тщательный анализ, чтобы выявить, будут ли новые стандарты и правила служить для защиты потребителей или, по сути, будут лишь ограничивать прогресс.

Нужно проанализировать текущие способы применения AI, возможные экономические последствия его внедрения в новых секторах и оценку осведомленности общественности о технологии.

Те, кто занимается разработкой AI в области глобальных технических сообществ, должны совместно решать вопрос о его проверяемости и прозрачности. Нужно инвестировать в исследования и разработки новых технологий AI, которые многие люди не понимают на алгоритмическом уровне.

Но, помимо индустрии, есть и другие заинтересованные стороны — правительство и система образования, играющие важную роль в том, чтобы помочь людям понять, когда ИИ наиболее полезен, почему он повышает производительность и, что важно, откуда он собирает данные для информирования о взаимодействии с людьми.

Открытие «черного ящика» AI

Фото: Wired
Фото: Wired

Как поясняет Крити Шарма, который помимо разработки занимает пост вице-президента по AI в Sage Group, увеличение прозрачности применения искусственного интеллекта и понимания AI зависит от нескольких аспектов.

Каждый, кто взаимодействует с ИИ, должен знать, что его собеседник в чате не является человеком, а также человек не должен притворяться ботом. Компании, использующие технологии ИИ для взаимодействия с клиентами и персоналом, должны четко понимать, что происходит с полученными данными.

Люди, переписывающиеся с платформами и системами, управляемыми AI, должны иметь возможность вести учет своих разговоров и использовать их, если появляется несоответствие, проблема или необходимость подтверждения.

Люди, создающие ИИ для бизнес-приложений и корпоративного софта, должны ответственно создавать, размещать и тестировать разнообразные данные. Необходимо ввести тестирование обнаружения предвзятости, которое определяет, соответствует ли ИИ стандартным и согласованным протоколам. В частности, инженеры должны моделировать, как наборы данных взаимодействуют с пользователями в самых разных контекстах, прежде чем AI покинет тестовую лабораторию.

Инженеры проверяют продукты, чтобы гарантировать, что они не вредны для человека. Они проводят контроль удобства использования и безопасности для защиты пользователей, почему же тогда разработчики ИИ в настоящее время не проверяют свои продукты на предмет вреда, который они могут причинить людям социально, этически или эмоционально?

Почему программисты, по аналогии с промышленностью, не добавляют в цикл разработки тест на предвзятость, чтобы гарантировать, что алгоритмы в приложениях AI не предвзяты и не приносят вреда, который может быть не сиюминутным или неочевидным для пользователя?

Инженеры AI также должны делиться лучшими практиками и открытиями устранения предвзятости со своими коллегами внутри и вне своей организации. Им необходимо убедиться, что ИИ, который они создают, и данные, которые он использует, соответствует разнообразию людей, которые используют ИИ для получения информации.

Главное, компании должны иметь возможность принять трудное решение — остановить продвижение, когда возникают технические проблемы или проблемы кодирования, которые мешают ИИ избегать предубеждений или обеспечивать прозрачность. Благодаря тому, что технологии и данные разнообразны, объективны и без ошибок, будет меньше проблем с «пристрастностью» AI, когда люди попытаются получить доступ к этой информации.

Индустрия ИИ должна самостоятельно устанавливать рамки этики, вынося этот вопрос на обсуждение между руководством и командами исполнителей. Эти рамки должны включать в себя кодекс принципов выбора, например, этические принципы AI, которые выпущены в Sage для организаций, разрабатывающих и применяющих решения для ИИ.

Рабочие партнерские отношения также должны устанавливаться между правительствами и предприятиями, чтобы они могли делиться информацией, связанной с безопасностью, в режиме реального времени. Достижение такого подлинного партнерства, как это, значительно повышает прозрачность и соответствует подходу «ИИ для коммерческого развития, государственных служб и социального блага».

Компании, разрабатывающие ИИ, должны проводить внутренние исследования, чтобы понять, где может быть применен искусственный интеллект, и сколько людей нуждается в обучении для реализации услуг, ориентированных на ИИ. Они должны создавать ускоренные обучающие программы, которые помогут людям, обладающих навыками разработки на основе AI, продолжать карьеру в сфере этих технологий.

Достижение прозрачности AI требует совместных усилий

Фото: Bernard Marr
Фото: Bernard Marr

По сути, технологическое сообщество должно определить, что означает прозрачность ИИ, и работать вместе, чтобы применять критерии прозрачности к инновациям в области ИИ. Нужно доносить до людей информацию об ИИ и освещать многочисленные варианты его использования — от технологий до здравоохранения, логистики, безопасности и быта.

Нынешняя нехватка прозрачности и образования ИИ вызывает недоверие к этой важной технологии. Если отрасль сможет решить этот вопрос, то обеспечит демократизированный доступ к информации с помощью таких технологий, как ИИ, которые свяжут нас как глобальное сообщество технологий и пользователей.

Всеобщая прозрачность, к которой мы должны стремиться, должна происходить на уровне алгоритма и данных. Глобальное сообщество ИИ должно сотрудничать, чтобы устранить предвзятость посредством надлежащего тестирования и обучения. Это стремление к созданию прозрачного, этичного ИИ поддерживают Комитет AI при парламенте Великобритании, Институт AI в Нью-Йорке и Инициатива по этике и управлению AI MIT Media Lab. Есть еще много работы, которая должна быть выполнена, но достижение прозрачного искусственного интеллекта будет стоить того.

Источник: TechCrunch