Как защититься от ИИ-подделок

Как защититься от ИИ-подделок
|18 декабря 2019| Орен Этциони

Последние изменения в области развития искусственного интеллекта (ИИ) свидетельствуют о наступлении нового времени, когда с минимальными усилиями кто угодно сможет сфабриковать документы, фотографии, аудиозаписи, видео и онлайн-профили. С ИИ высококачественные фальшивки можно будет изготовить с помощью автоматизированных средств и без существенных расходов, и это грозит разрушительными последствиями для демократии, национальной безопасности и общества в целом. Как исследователь ИИ я хотел бы первым поднять тревогу и предложить частичное решение.

В феврале угроза подделки документов с применением механизмов ИИ вышла на новый уровень: исследовательская компания OpenAI анонсировала GPT-2, генератор текста на базе ИИ, позволяющий получать настолько правдоподобный материал, что инструмент сочли слишком опасным для открытого выпуска ввиду возможных злоупотреблений. Образцы текста, составленного GPT-2, выглядят пугающе «достоверно», как если бы их написал человек. К сожалению, будут появляться и еще более мощные инструменты, и их могут взять в оборот разные неблагонадежные лица.

Автоматизированный подлог уже прижился в социальных медиа, это видно, например, по опыту американских выборов 2016 года. Как сообщала The Washington Post, в последние месяцы перед президентскими выборами в США в 2016 году Twitter обнаружил десятки тысяч автоматизированных аккаунтов, связанных с Россией. По оценкам Facebook, в период с января 2015 по август 2017 года фейки, распространявшиеся российскими ботами, потенциально могли достичь охвата в половину американского электората (126 млн из 250 млн избирателей).

Я призывал принимать меры, которые бы обязывали раскрывать ботов, и с июля 2019 года в штате Калифорния в силу вступил соответствующий закон. Это важный шаг, но в международном цифровом законодательстве его влияние невелико.

Проблема гораздо шире, и ботами она не исчерпывается. Поддельные фотографии уже ни для кого не новость, а последние достижения в сфере обработки изображений позволяют создавать крайне реалистичные фальшивые видео. Исследователи недавно продемонстрировали эти новые возможности на примере сгенерированного искусственным интеллектом видеообращения, сделанного якобы от лица бывшего президента США Барака Обамы с наложением речи, на самом деле позаимствованной из аудиофрагментов. Затем появились deepfake-материалы — сгенерированные с помощью ИИ видео пугающей правдоподобности с полностью измененными выражениями лица персонажа в кадре, сфабрикованными методом совмещения двух образов. Эта технология переноса черт лица вполне доступна; ее даже начали применять в порнографической продукции — появилось большое количество роликов с вмонтированными лицами знаменитостей. Ставшее вирусным видео, в котором Обама предостерегает об опасности deepfake-материалов, само оказалось фейком.

Полная версия статьи доступна подписчикам
Выберите срок онлайн-подписки:

https://hbr-russia.ru/innovatsii/trendy/818467

2019-12-18T15:07:47.914+03:00

Wed, 18 Dec 2019 12:13:08 GMT

Как защититься от ИИ-подделок

Что может спасти от цифровых фальшивок в XXI веке

Инновации / Тренды

https://cdn.hbr-russia.ru/image/2019/9l/15edu6/original-1hnj.jpg

Harvard Business Review РоссияHarvard Business Review Россия

Harvard Business Review РоссияHarvard Business Review Россия