Нажмите "Enter", чтобы перейти к контенту

Торги обернулись лицом

Торги обернулись лицом

Торги обернулись лицом

Юлия Степанова о том, как заработать на подмене изображений

Газета «Коммерсантъ» №156 от 01.09.2021, стр. 7

Сдать в аренду можно не только жилье, но и себя. Например, американскому стартапу Hour One, который создает персонажей рекламных и образовательных видео для компаний по всему миру. Сейчас в их базе уже около 100 лиц: 80% участников — моложе 50 лет, 70% — женщины, пишет MIT Technology Review. Граждане передают стартапу права на использование своего лица, после чего их снимают на камеру 4К на зеленом фоне. Кадры того, как человек разговаривает или корчит рожи, обрабатывает искусственный интеллект, в результате чего могут быть созданы видеозаписи на любом языке.

Аналогичный сервис мог бы появиться и в России: любой может дать согласие на использование своего изображения для создания цифрового двойника, говорит преподаватель Moscow Digital School Олег Блинов.

Так уже подрабатывают актеры: например, в рекламе «МегаФона» появился DeepFake Брюса Уиллиса, то есть видео с подменой изображения. Но право отозвать согласие на обработку данных, которое законодательно действует в РФ с начала года, может повлечь проблемы для сервисов с DeepFake. Если человек отзовет согласие, им придется сообщить клиентам, которые уже купили видео, о необходимости прекратить использование, отмечает Олег Блинов.

Впрочем, это не самое страшное.

Куда хуже, когда технология превращается в оружие.

Такие опасения не раз высказывали компании по информбезопасности и регулирующие органы. Например, в мае ЦБ заявлял о рисках мошенничеств с применением технологии DeepFake в случае использования видеосвязи для удаленного открытия счетов новым клиентам.

Реалистичные видео могут повредить и репутации известных людей. Так, быстро стал скандальным появившийся 30 августа Telegram-канал «Загробная жизнь Макафи» скончавшегося основателя разработчика антивирусного софта McAfee — Джона Макафи. В нем выложены архивы весом более 31 терабайт с компрометирующей информацией. Речь идет, например, о фотографиях, изобличающих известных политиков в педофилии и убийствах детей. Но и в этот раз репутация политиков могла пострадать из-за DeepFake-умельцев, как это случилось с бывшим президентом США Бараком Обамой, когда в сети появилось фальшивое видео, где он оскорблял Дональда Трампа.

Создать подобное видео становится все проще — заказать DeepFake можно даже в Telegram-каналах. «Цена одной минуты DeepFake-видео начинается от $200», «не делаем видео, направленные на тематики 18+, мошеннические и прочие незаконные тематики. Только развлечения и юмор», сообщается в условиях одного из подобных сервисов. Вот только в случае с DeepFake от юмора до оружия — один шаг. И остается вопрос, смогут ли люди, работающие с такими стартапами, сохранить контроль над тем, как и где их лица используются?