Почему вы должны быть осторожными с голосовыми помощниками | Harvard Business Review Russia
Этика и репутация

Почему вы должны быть осторожными с голосовыми помощниками

Тревор Кокс
Почему вы должны быть осторожными с голосовыми помощниками
CARMEN MARTÍNEZ TORRÓN/GETTY IMAGES

По мере того, как «умные ассистенты» и голосовые интерфейсы становятся частью нашей повседневной реальности, мы начинаем делиться новой формой наших личных данных — речью. И это касается не только тех слов, которые мы произносим вслух.

Речь лежит в основе наших социальных взаимодействий, и мы поневоле многое сообщаем о себе, когда говорим. Когда мы слышим голос, мы сразу же пытаемся определить акцент и интонацию и делаем выводы относительно возраста, образования, личностных черт и прочего. Так мы пытаемся помочь себе подобрать лучшую стратегию взаимодействия с говорящим.

Но что происходит, когда анализировать человеческую речь берется машина? Технологические гиганты не отвечают однозначно на вопрос о том, что конкретно и зачем они планируют определять в наших голосах. Но у Amazon уже есть патент, в котором перечислен список черт, который компания может начать определять, включая идентичность («гендер, возраст, этническое происхождение и т.д.»), состояние здоровья («боль в горле, тошнота, и т.д.») и чувства («радость, грусть, усталость, сонливость, взволнованность и т.д.»).

Меня это беспокоит, и вас это тоже должно беспокоить, поскольку алгоритмы несовершенны. Голос особенно сложно поддается анализу, поскольку сигналы, которые мы подаем, зачастую противоречивы и двусмысленны. Более того, даже сделанные человеком выводы о голосе искажаются стереотипами. Возьмем, к примеру, попытку определить сексуальную ориентацию.

Полная версия статьи доступна подписчикам
Вы уже подписаны?
Тогда авторизуйтесь
советуем прочитать
Притча о гостеприимстве
Шапигузов Сергей