Почему вы должны быть осторожными с голосовыми помощниками | Harvard Business Review Russia
Этика и репутация

Почему вы должны быть осторожными с голосовыми помощниками

Тревор Кокс
Почему вы должны быть осторожными с голосовыми помощниками
Фото: CARMEN MARTÍNEZ TORRÓN/GETTY IMAGES

По мере того, как «умные ассистенты» и голосовые интерфейсы становятся частью нашей повседневной реальности, мы начинаем делиться новой формой наших личных данных — речью. И это касается не только тех слов, которые мы произносим вслух.

Речь лежит в основе наших социальных взаимодействий, и мы поневоле многое сообщаем о себе, когда говорим. Когда мы слышим голос, мы сразу же пытаемся определить акцент и интонацию и делаем выводы относительно возраста, образования, личностных черт и прочего. Так мы пытаемся помочь себе подобрать лучшую стратегию взаимодействия с говорящим.

Но что происходит, когда анализировать человеческую речь берется машина? Технологические гиганты не отвечают однозначно на вопрос о том, что конкретно и зачем они планируют определять в наших голосах. Но у Amazon уже есть патент, в котором перечислен список черт, который компания может начать определять, включая идентичность («гендер, возраст, этническое происхождение и т.д.»), состояние здоровья («боль в горле, тошнота, и т.д.») и чувства («радость, грусть, усталость, сонливость, взволнованность и т.д.»).

Меня это беспокоит, и вас это тоже должно беспокоить, поскольку алгоритмы несовершенны. Голос особенно сложно поддается анализу, поскольку сигналы, которые мы подаем, зачастую противоречивы и двусмысленны. Более того, даже сделанные человеком выводы о голосе искажаются стереотипами. Возьмем, к примеру, попытку определить сексуальную ориентацию.

советуем прочитать
Войдите на сайт, чтобы читать полную версию статьи
советуем прочитать
Еще одно испытание для Китая
Михов Илиан,  Фатас Антонио
Коллективный разум не всегда разумен
Санстейн Касс,  Хасти Рейд
В чем сила, бренд?
Дэниэл Корстен ,  Кастури Ранган ,  Леонард А. Шлезингер ,  Мэтт Хиггинс