Страшный Tesla: почему мы не можем довериться беспилотным автомобилям | Harvard Business Review Russia
Феномены

Страшный Tesla: почему мы не можем довериться беспилотным автомобилям

Имран Кронк , Картик Хосанагар
Страшный Tesla: почему мы не можем довериться беспилотным автомобилям

7 мая 2016 года Джошуа Браун, 40-летний предприниматель и любитель современных технологий из города Кантон, штат Огайо, сидел за рулем своего седана Tesla Model S, когда наперерез ему вывернула огромная фура. Tesla, двигавшаяся в режиме автопилота, не зарегистрировала белую фуру на фоне яркого солнечного флоридского неба. А мистер Браун не успел нажать на тормоз. Автомобиль врезался в грузовик на скорости 74 миль в час, практически мгновенно убив своего водителя.

здесь).

Вождение автомобиля – одно из самых индивидуальных (и самых опасных) человеческих занятий. Вполне понятно, что люди скептически относятся к тому, чтобы отдать ключи безликому алгоритму и стать пассажиром. При слове «алгоритм» вы можете представлять себе компьютер, ведущий расчеты согласно формуле или запрограммированной последовательности шагов. Но в последнее десятилетие алгоритмы шагнули далеко вперед: они могут собирать данные, обучаться и порождать более сложные версии самих себя. Они даже могут водить машину.

Мы полагаемся на алгоритмы во многих делах и решениях, от такой малорискованной деятельности, как выбор фильма на Netflix или покупок на Amazon, до таких судьбоносных решений, как вложение сбережений. Нас даже не смущает, когда автопилот частично управляет нашим самолетом. Этот нынешний скепсис по поводу самоуправляющихся автомобилей ставит перед нами важный вопрос: почему в одних случаях мы доверяем алгоритмам, а в других – нет?

Наше доверие к алгоритмам избирательно

Люди не всегда избегают алгоритмов. Исследования, проведенные одним из нас – Картиком – на тему алгоритмов автоматических рекомендаций (например, «люди, купившие X, также купили Y» на Amazon), обнаружило, что людям нравятся алгоритмические советы и они часто им следуют. Например, в одном недавнем опросе, проведенном совместно с профессором Докуином Ли в университете Карнеги Меллон, мы случайным образом приписали покупателей одного из пяти ведущих онлайн-продавцов в Канаде или к группе, которая получала алгоритмические рекомендации, или к контрольной группе, не получавшей таких рекомендаций. Мы обнаружили, что алгоритмические рекомендации на 25% повысили количество просмотренных клиентами продуктов и на 35% – купленных. С помощью дополнительного исследования мы выяснили, что влияние алгоритмов на выбор более значимо для продукции, предназначенной для получения удовольствия (например, фильмов, духов, произведений искусства), чем для утилитарных продуктов, потребление которых мотивировано функциональной потребностью (например, скрепок, средств для мытья посуды и пылесосов).

Еще один эксперимент показал, что даже случайно сгенерированные рекомендации продукции способны вызвать небольшое увеличение объема продаж, если они подавались как персонализированные (возможно, благодаря эффекту плацебо). Опрос после эксперимента обнаружил, что потребительское доверие к случайному «советчику» продукции было не ниже, чем в случае со сложным и индивидуализированным механизмом рекомендации. И речь не только о рекомендациях покупок – стремительный рост популярности таких роботизированных советчиков, как Wealthfront и Betterment, говорит о том, что люди готовы доверять алгоритмам в своих важных решениях об инвестициях, которые раньше принимались с помощью живых экспертов.

И в то же время рекомендации продукции и инвестиционное управление отличается от беспилотных машин в нескольких очень важных аспектах. Эти различия относятся к уровню субъективности суждений, типу пользователей, на которых нацелены данные системы, а также к уровню контроля потребителя в процессе принятия решений. Дженнифер Логг из Калифорнийского университета в Беркли провела четыре эксперимента, чтобы выяснить, почему мы иногда не доверяем алгоритмам несмотря на все возрастающую зависимость от них. В первом опросе участники делали два предположения по поводу массы человека на фотографии. Первая догадка была основана на личной оценке тестируемого. Для второго предположения участникам давали советы: некоторым показывали догадки других людей, а остальным – оценки, cгенерированные алгоритмом. Логг вычислила степень, в которой тестируемые доверяли алгоритму больше, чем другим людям, основываясь на том, насколько менялись значения во втором случае по сравнению с первым.

советуем прочитать
Войдите на сайт, чтобы читать полную версию статьи
советуем прочитать
Осторожно, профсоюз
Анастасия Миткевич