Почему пациенты не верят алгоритмам

Почему пациенты не верят алгоритмам
7 сентября 2021| Кьяра Лонгони Ромен Кадарио Кэри Морведж

Медицинские приложения для диагностики на основе искусственного интеллекта получают все большее распространение, к некоторым из них можно получить доступ со смартфона. Например, компания Google недавно объявила о выходе на этот рынок с инструментом на основе ИИ, помогающим людям выявлять заболевания кожи, волос и ногтей. Однако основным препятствием к внедрению этих технологий является тот факт, что потребители меньше доверяют медицинскому ИИ, чем врачам. Они считают, что медицинский ИИ не может удовлетворить их уникальным потребностям и работает хуже, чем специалисты, и пациенты чувствуют, что не могут привлечь ИИ к ответственности за ошибки, как человека.

Сопротивление использованию ИИ в сфере медицины представляет сложности для политиков, желающих улучшить здравоохранение, и компаний, продающих инновационные медицинские услуги. Наше исследование подсказывает, как можно преодолеть это сопротивление.

В работе, недавно опубликованной в журнале Nature Human Behaviour, мы показываем, что принятие пользователями ИИ в медицине не меньше связано с их негативным восприятием поставщиков медицинских услуг на основе ИИ, чем с нереалистично позитивным восприятием решений человека. Потребители неохотно пользуются услугами на основе ИИ, так как думают, что не понимают, или действительно не понимают, как ИИ принимает решения, касающиеся медицинских вопросов. Для них процесс принятия решений ИИ остается загадкой. Потребители также неохотно применяют медицинский ИИ, потому что ошибочно считают, что лучше понимают, как решения, касающиеся медицины, принимают люди.

Наше исследование, состоящее их пяти онлайн-экспериментов на базе репрезентативной для страны и произвольной выборки из 2699 человек и онлайн-исследования с помощью Google Ads, показывает, насколько плохо потребители понимают, как медицинский ИИ приходит к своим выводам. Так мы тестировали, что американцы из национальной репрезентативной выборки знают о том, как поставщики медицинских услуг на основе ИИ принимают решения — например, является ли родинка злокачественной или доброкачественной. Результаты участников были не лучше догадок, они были бы такими же, если бы они выбирали ответы случайным образом. Но участники признавали собственное невежество: они оценили уровень своего понимания процесса принятия медицинских решений ИИ как низкий.

В то же время участники переоценивали степень своей осведомленности о том, как принимают решения врачи. Несмотря на то, что участники наших экспериментов одинаково плохо понимали, как принимает решение ИИ и как это делают врачи, они заявляли, что лучше понимают решения, принимаемые людьми.

В одном эксперименте мы попросили респондентов из национальной репрезентативной онлайн-выборки, состоящей из 297 жителей США, сообщить, насколько хорошо они понимают, как врач или алгоритм будет рассматривать изображение их кожи, чтобы выявить раковые поражения кожи. Затем мы попросили участников объяснить процесс принятия решений, применяемый человеком или поставщиком алгоритма. (Подобный метод применялся ранее, чтобы разрушить иллюзорные убеждения о том, насколько хорошо люди понимают причинно-следственные связи. Например, большинство людей считает, что понимают, как работает вертолет. И только если попросить их объяснить, они осознают, что понятия не имеют.)

После того как участники давали объяснение, они снова оценивали свое понимание процесса принятия решений человеком или алгоритмом. Мы обнаружили, что, когда нужно было объяснить процесс принятия решений человеком или алгоритмом, у участников заметно убавлялось уверенности в собственной осведомленности в отношении работы врача — но не алгоритмов. Это связано с тем, что субъективное понимание того, как врачи принимают решения, было преувеличено, а на субъективное понимание того, как принимает решение ИИ, просьба дать объяснение не влияла — вероятно потому, что участники и без того чувствовали, что процессы на основе ИИ являются для них загадкой.

В другом эксперименте с национальной американской репрезентативной выборкой, в которой было 803 респондента, мы оценивали, насколько хорошо, по мнению людей, они понимали процессы принятия решений человеком или алгоритмами при диагностике рака кожи, и затем тестировали их, чтобы узнать, насколько хорошо они понимали их в действительности. Для этого с помощью специалистов в области медицины, команды дерматологов медицинской школы в Нидерландах и команды разработчиков популярного в Европе приложения для выявления рака кожи, мы составили опросник. Мы обнаружили, что, хотя участники и сообщали о более низком субъективном уровне понимания медицинских решений, принимаемых алгоритмами, по сравнению с решениями, принимаемыми людьми, они на деле одинаково слабо представляли себе решения тех и других.

Что могут сделать политики и компании, чтобы способствовать более активному использованию медицинского ИИ?

Мы обнаружили два успешных, но несколько отличающихся друг от друга метода, основанных на объяснении логики решений врачей и алгоритмов. В одном эксперименте мы объясняли, как и те и другие пользуются такими параметрами, как асимметрия, границы, цвет и диаметр, для оценки вероятности злокачественности кожного образования. В другом эксперименте мы объясняли, что и врачи, и алгоритм сравнивают рассматриваемую родинку с другими, злокачественность которых установлена.

После применения этих методов свой уровень понимания решений алгоритма участники стали определять как более высокий, и он стал меньше отличаться от их субъективных оценок собственных представлений о решениях врачей. Кроме того, участники проявляли большую готовность пользоваться алгоритмами, не умаляя важности обращения к врачам.

Эффективность этих методов не ограничивается лабораторией. В исследовании в естественных условиях на платформе Google Ads мы демонстрировали пользователям в их результатах поиска одну из двух реклам приложения по выявлению рака кожи. В одной рекламе не было объяснения, а в другой кратко объяснялась работа алгоритма. За пять дней кампании реклама с объяснением работы алгоритма обеспечила больше переходов и более высокий показатель частоты нажатия на ссылку.

Медицинские услуги на основе ИИ необходимы в деле обеспечения высококачественной и доступной помощи потребителям в развитых и развивающихся странах. Результаты наших исследований демонстрируют, как более высокий уровень прозрачности — объяснение принципов работы ИИ — может помочь в достижении этой важной цели.

Об авторах

Кьяра Лонгони (Chiara Longoni) — доцент, преподаватель маркетинга Школы бизнеса КвестромБостонского университета.

Ромен Кадарио (Romain Cadario) — доцент, преподаватель маркетинга Школы менеджмента Университета Эразма Роттердамского.

Кэри Морведж (Carey K. Morewedge) — профессор маркетинга и почетный научный сотрудник Бостонского университета.

https://hbr-russia.ru/innovatsii/trendy/885542

2021-09-07T12:41:59.894+03:00

Tue, 07 Sep 2021 09:42:00 GMT

Почему пациенты не верят алгоритмам

Как принимают решения врачи и искусственный интеллект

Инновации / Тренды

https://cdn.hbr-russia.ru/image/2021/6y/qtyzi/original-yrx.jpg

Harvard Business Review РоссияHarvard Business Review Россия

Уважаемые подписчики! С 1 июля 2021 года издателем Harvard Business Review Россия является ООО «Бизнес Инсайт Медиа». По вопросам продления и переоформления текущей подписки, а также для подключения новой подписки, обращайтесь по e-mail: podpiska@hbrr.ru
Закрыть

Harvard Business Review РоссияHarvard Business Review Россия