Как алгоритмы могут стать справедливее любого HR-специалиста | Harvard Business Review Russia
Технологии

Как алгоритмы могут стать справедливее любого HR-специалиста

Бен Даттнер , Томас Чаморро-Премузик , Фрида Полли
Как алгоритмы могут стать справедливее любого HR-специалиста
Tianyi Ma/Unsplash

Искусственный интеллект изменил все сферы нашей жизни: мы привыкли к тому, что крупные компании вроде Amazon и Alibaba теперь курируют наш покупательский опыт, а Youtube и Netflix продвигают новый контент с помощью персональных рекомендаций. Однако в области управления рабочей средой инструменты ИИ все еще находятся на ранней стадии развития. Особенно это касается кадровой политики. Если привести понятную аналогию, сейчас ИИ в рабочей сфере пока еще можно сравнить с модемным интернетом-доступом. Эра WiFi 5G еще не наступила, но мы не сомневаемся, что рано или поздно это случится.

Безусловно, есть множество версий относительно того, на что искусственный интеллект способен, а на что — нет, равно как и мнений о том, что именно можно считать ИИ. Однако в войне за таланты ИИ играет совершенно определенную роль: он нужен, чтобы предоставлять организациям более точные и эффективные прогнозы о вероятном поведении кандидата в рабочей среде и его производительности. В отличие от таких традиционных инструментов рекрутинга, как рекомендательные письма, резюме и личные собеседования, ИИ способен находить закономерности, невидимые человеку.

Во многих ИИ-системах в качестве эталона успешности и продуктивности в той или иной должности выступают реальные люди. Так называемая «обучающая выборка» часто формируется из показателей руководителей и сотрудников, которых принято считать наиболее производительными. Системы искусственного интеллекта обрабатывают и сравнивают данные разных соискателей с «эталонным» работником, чей образ был создан на основе анализа данных из обучающей выборки. В результате ИИ выдает представителям компании вероятностную оценку того, насколько характеристики соискателя соответствуют характеристикам идеального сотрудника.

Теоретически этот метод можно использовать, чтобы максимально быстро и эффективно подбирать подходящих кандидатов на подходящие им позиции. Однако, как вы, возможно, уже поняли, здесь есть и свои риски. Если набор данных для обучения достаточно разнообразен, для анализа используются данные без искажения по демографическому признаку, да и сами алгоритмы тоже не подвержены каким-либо искажениям, такая техника может выправить человеческую склонность к предубеждениям и повысить степень разнообразия и социально-экономический инклюзии, как никогда не удавалось никому из нас. Но если обучающая выборка, сами данные или все вместе взятое искажены, а алгоритмы недостаточно отточены, ИИ только усугубит проблему предвзятости и однотипности решений при приеме на работу.

Чтобы усовершенствовать методы управления кадрами и в полной мере воспользоваться возможностями и потенциалом ИИ, мы должны сместить акцент с разработки более этичных систем для управления персоналом на разработку более этичного ИИ. Конечно, полностью исключить искажения в работе ИИ нелегко. В реальности это очень и очень сложно. Но наша позиция основана на убежденности, что проще отучить от предрассудков искусственный интеллект, чем людей.

Полная версия статьи доступна подписчикам
Вы уже подписаны?
Тогда авторизуйтесь
советуем прочитать
Следи за собой, будь осторожен
Владимир Рувинский