Инновации / Тренды

Проверка для ИИ

Проверка для ИИ

|5 декабря 2018|Джеймс ГущаЛиад РахванУилл БайблМануэль СебрианВик Катьял

Алгоритмы и искусственный интеллект (ИИ) обладают огромным потенциалом и, вероятно, станут в обозримом будущем настоящими экономическими блокбастерами. Однако нас беспокоит, что из-за этого ажиотажа многие упускают из виду серьезные проблемы внедрения алгоритмов в работу бизнеса и жизнь общества. Как отмечает Кейт Кроуфорд из Microsoft, многие люди стали «дата-фундаменталистами». Они считают, что большие массивы данных — это источник, способный производить на свет надежные истины, и все, что нужно сделать — лишь извлечь эти истины с помощью инструментов машинного обучения.

Но необходим более пристальный взгляд на вещи. Сегодня совершенно ясно, что алгоритмы ИИ, включенные в цифровую и социальную жизнь и оставленные без присмотра, могут способствовать распространению предубеждений, слухов и неверной информации, усиливать резонанс общественного мнения, отвлекать наше внимание и даже ухудшать наше психическое состояние. Для того чтобы алгоритмы и технологии искусственного интеллекта стояли на страже общественных интересов, потребуется не меньше усердной творческой работы и инноваций, чем для разработки самих этих технологий. И мы предполагаем, что начать эту работу следует с аудита.

Компании уже давно обязаны публиковать результаты аудиторской проверки финансовой отчетности в интересах финансовых рынков и стейкхолдеров. Это связано с тем, что внутренние операции компаний, как и алгоритмы, со стороны выглядят «черным ящиком», то есть чем-то неизвестным и непонятным. Эффект «черного ящика» дает менеджменту компании информационное преимущество перед инвесторами и может привести к неэтичному поведению и злоупотреблениям с его стороны. Требования периодически информировать об операциях лишают их этого преимущества. Для повышения надежности этих отчетов нанимают независимых аудиторов, которые обеспечивают достаточную уверенность в том, что отчеты, исходящие из «черного ящика», не содержат существенных искажений.

Не следует ли подвергать подобной проверке и алгоритмы, способные оказывать влияние на общество? Некоторые дальновидные регулирующие органы начинают задумываться о такой возможности. Например, Общий регламент ЕС по защите персональных данных (GDPR) требует, чтобы организации могли объяснить свои алгоритмы принятия решений. Недавно в Нью-Йорке была сформирована специальная комиссия для изучения возможных искажений в системах алгоритмических решений. Разумно предположить, что в ответ на новые требования регулирующих органов возникнет спрос на услуги учета алгоритмов.

Как может выглядеть аудит алгоритмов? Во-первых, он должен быть цельным. Без методов информатики и машинного обучения не обойдется, но, вероятно, их будет недостаточно для полноценного аудита. Что может потребоваться еще? Стратегическое мышление, экспертное мнение, подкрепленное знанием контекста, коммуникации и научный подход.

Полная версия статьи доступна подписчикам
Выберите срок онлайн-подписки:

https://hbr-russia.ru/innovatsii/trendy/788522

2018-12-05T20:02:09.380+03:00

Thu, 06 Dec 2018 16:52:10 GMT

Проверка для ИИ

Почему бизнесу и обществу необходим аудит алгоритмов

Инновации / Тренды

https://cdn.hbr-russia.ru/image/2018/9f/16ma2a/original-1j8g.jpg

Harvard Business Review – РоссияHarvard Business Review – Россия

Harvard Business Review – РоссияHarvard Business Review – Россия