Правда, ИИ, ложь

Правда, ИИ, ложь
|23 июля 2019| Дэвид Де Кремер

Организации все активней используют искусственный интеллект и алгоритмы для управления бизнес-процессами, найма сотрудников и автоматизации рутинных организационных решений. И это неудивительно, поскольку применение простых линейных алгоритмов продемонстрировало свое превосходство над человеческим суждением в точности выполнения многих административных задач. Опрос компании Accenture в 2017 году показал, что 85% руководителей хотят в течение следующих трех лет более активно инвестировать в технологии, связанные с ИИ.

Несмотря на этот прогноз, реальность такова, что, по крайней мере, в некоторых случаях люди проявляют сильное чувство отторжения к использованию автономных алгоритмов. Например, опросы показывают, что 73% американцев сообщили, что боятся ездить на автомобиле с автоматическим управлением. Врачи также предпочтительнее алгоритмов в медицинском контексте, с точки зрения пациентов, несмотря на доказательства того, что алгоритмы иногда могут поставить более точные диагнозы. Такое неприятие создает рабочие ситуации, в которых внедрение ИИ приводит к неоптимальному, неэффективному и предвзятому использованию алгоритмов. Поэтому, раз уж ИИ суждено стать важным инструментом управления в наших организациях, алгоритмы необходимо использовать как надежных советников для принимающих решения людей. Они также должны способствовать укреплению доверия в компании.

Этот вывод не остался незамеченным в деловых кругах. Некоторые компании, в том числе Trust Science, выпустили на рынок алгоритмы, которые могут помочь составить профили надежности отдельных лиц и организаций. Но неужели ИИ обладает таким «социальным» навыком? Это важный вопрос, потому что доверие требует особой социальной чувствительности, которая приписывается исключительно человеку. Фактически уникальная способность понимать человеческие эмоции и желания является необходимым условием для оценки надежности личности, и такую способность трудно создать искусственно. Итак, могут ли люди, принимающие решения, принять алгоритмы, предоставляющие рекомендации в этой области человеческого взаимодействия?

Чтобы изучить этот вопрос, мы провели экспериментальное исследование через онлайн-систему Prolific Academic (ProA), которая заслужила себе хорошую репутацию, обеспечивая высокий уровень качества данных. Мы проанализировали ответы 136 участников (68 женщин и 66 мужчин со средним опытом работы 8,73 года), которые участвовали в онлайн-моделировании организации, состоящей из трех иерархических уровней: рядовых сотрудников, среднего звена и высшего руководства. Участники были назначены на рядовые должности и были проинформированы, что будут сотрудничать с неким неизвестным человеком для совместной работы над задачей. В случае хороших результатов бюджет проекта будет увеличен.

Полная версия статьи доступна подписчикам
Выберите срок онлайн-подписки:

https://hbr-russia.ru/innovatsii/tekhnologii/807071

2019-07-23T08:48:11.720+03:00

Tue, 23 Jul 2019 05:48:28 GMT

Правда, ИИ, ложь

Способны ли алгоритмы решить, кому стоит доверять

Инновации / Технологии

https://cdn.hbr-russia.ru/image/2019/5o/inhmn/original-o69.jpg

Harvard Business Review РоссияHarvard Business Review Россия

Harvard Business Review РоссияHarvard Business Review Россия