Павел Иевлев

Текст

Миллионы лет эволюции приучили людей доверять зрению, и восклицание «глазам своим не верю!» еще недавно воспринималось как ироническое. Однако дипфейки учат нас критически относиться к увиденному. И по темпам обучения человечеству стоит постараться обогнать нейросети

Слово дипфейк (deepfake) сложилось из терминов deep learning (глубокое обучение) и fake (подделка). Это явление считается порождением новейших технологий машинного обучения, однако само явление «подмены визуальной реальности» куда старше. Первые опыты в «теплых аналоговых дипфейках» были ровесниками фотографии и делались методами двойного экспонирования и ретуши. Так на изображениях появлялось то, чего не было в объективе камеры: это было еще не deep, но уже fake. Затем пришел кинематограф с комбинированными съемками и макетами, замахали нарисованными световыми мечами джедаи на картонных звездолетах, а чуть позже компьютеры доросли до неотличимой от реальности графики. Чем дальше, тем более убедительной становилась картинка.

Даже примитивные технологии фотомонтажа регулярно использовались для производства подделок. И не только в целях создания относительно безобидных сенсаций вроде лохнесского чудовища или НЛО, но и для шантажа, политических провокаций, репутационных скандалов, влияния на общественное мнение и так далее. Разумеется, дипфейки, давшие возможность простого, а главное, массового доступа к технологии подмены изображений, получили в первую очередь негативную коннотацию, хотя могли бы использоваться (и используются) не только в дурных целях.

Глубины возможностей

Дипфейки создаются путем обучения генеративно-состязательной нейронной сети (Generative Adversarial Network, или GAN). Одна нейронная сеть, генератор, создает изображения, а другая, дискриминатор, оценивает их. Этот процесс носит итерационный характер: генератор постоянно совершенствует выходной сигнал, создавая все более убедительные подделки, пока дискриминатор не перестанет отличать настоящие изображения от фейков. Как правило, в этот момент их перестают различать и люди.

Это открывает окно возможностей для манипуляций в области социальной инженерии, причем с очень низким «порогом вхождения», что кардинально отличает дипфейки от технологий подмены прошлых поколений. Чтобы создать убедительное поддельное фото, не говоря уже о видео, средствами аналоговой передачи изображения, требовались высокая квалификация исполнителя, много труда, а результат все равно не мог обмануть эксперта. Сейчас генеративные сети доступны каждому, что порождает количественный скачок, глубоко влияющий на медиасферу. И это в тот момент, когда сама медиасфера занимает все больше места в нашей жизни. Только за 2020 год и только в США было совершено более миллиона махинаций с использованием технологии deepfake.

Неужели дипфейки настолько хороши, что их невозможно распознать? Увы, да. И не в последнюю очередь потому, что люди слишком уверены в себе. Опросы показали, что 57 % потребителей контента во всем мире считают, что они могут успешно обнаружить подделку, хотя на практике смогли их распознать всего 24 % респондентов.

Учитывая, что качество генерации и мощность GAN-сетей растут экспоненциально, на несколько поколений в год, несложно экстраполировать, что вскоре детектировать дипфейки не смогут даже специальные службы — ​не то что пользователь, увидевший ролик в соцсети. Практически все методы выявления подделок, работавшие еще несколько месяцев назад (такие как артефакты генерации, анализ теней, отражения в глазах и тому подобное), теряют актуальность. Разумеется, постоянно появляются новые, например анализ пульсации крови в венах лица, частоты моргания и так далее, но это вечная история «борьбы брони и снаряда», в которой чаще всего проигрывает обычный человек.

Криминальные услуги

Наиболее популярные на сегодня сценарии криминального использования глубоких подделок — ​это шантаж, фишинг, обход биометрии, манипуляции общественным мнением и Crime-as-a-Service (преступление как сервис). В целях шантажа преступники генерируют поддельные видео или фото жертвы в компрометирующей ситуации и требуют деньги за нераспространение материала. Многие предпочтут откупиться, а не доказывать, что не снимались, например, в порно. В продвинутых фишинговых атаках сгенерированное изображение используется во время видео-конференц-связи. Мошенники притворяются высокопоставленными руководителями и убеждают жертву совершить крупный денежный перевод.

Современные биометрические системы не обмануть обычной фотографией, но динамическое видео может помочь имитировать живого человека. Для этого не обязательно размахивать перед камерой банкомата экраном телевизора. Существует возможность внедрять подделки непосредственно в поток данных или в процесс аутентификации (атака с цифровым внедрением).

Crime-as-a-Service — ​относительно новая, но пугающе быстро растущая криминальная отрасль. Это процесс, при котором киберпреступники разрабатывают инструменты deepfake, а затем продают их как услугу для криминальных кругов самой разной специализации. В отличие от преступника-­одиночки, такая система не имеет недостатка в финансировании и дефицита в компетенциях, что превращает ее в глобальную угрозу.

Использование дипфейков для влияния на общественное мнение позволяет, например, воздействовать на стоимость биржевых активов. Однажды очередное заявление Илона Маска о продаже «Теслы» за определенную криптовалюту может оказаться ложным, и кто-то успеет неплохо заработать на рыночной панике. А уж какой финансовый шторм вызовет дипфейк об изменении ставки рефинансирования!

Дипфейк в законе

Технологии подмены изображения не развивались бы так стремительно, не будь у них легальных и полезных вариантов применения. Например, съемка в рекламе приносит известным актерам немалые деньги. Узнаваемость — ​это реальный капитал, они нарабатывали ее годами и имеют полное право монетизировать. Однако сам процесс съемки в рекламе отвлекает звезд от создания оскароносных шедевров, а их гонорары закладываются в стоимость рекламируемого товара, ложась на плечи потребителя. Технология deepfake позволяет актерам и компаниям, производящим рекламу, сделать шаг навстречу друг другу — ​актеры продают свое лицо, а не себя. Известные каждому человеку черты накладывают на других людей, и вот уже условный Том Круз может «сняться» в сотне роликов, не потратив ни минуты драгоценного времени, причем сам актер получит больше, а каждый рекламодатель заплатит меньше. Аналогичным образом в обновленных «Звездных войнах» можно увидеть молодые лица актеров из первых серий, «надетые» на новых исполнителей.

Еще одно применение дипфейков — ​lip sync, синхронизация движения губ с речью. Так, в социальной рекламе против малярии, созданной Ridley Scott Associates и Synthesia, Дэвид Бэкхэм говорит на всех языках, на которые был переведен ролик, и губы его двигаются синхронно вне зависимости от того, китайский это, английский или русский. Такая технология в настоящее время активно внедряется для дубляжа полнометражных фильмов.

И даже в политике этот метод не обязательно используется для компрометации. Не так давно в Индии президент партии «Бхаратия Джаната» Манодж Тивари обращался к своим сторонникам на хинди, диалекте хариани и на английском одновременно, используя в предвыборном ролике lip sync, что высоко оценили его поклонники из разных языковых групп. Всякому приятно, когда твой политик говорит на твоем языке.

Спорная с этической и психологической точки зрения, но, безусловно, несущая благое намерение техника «оживления мертвых» также основана на deepfake. Оцифровав прижизненные видео умерших людей, можно создавать их достоверные виртуальные копии. Так, женщина из Южной Кореи смогла увидеть свою дочь живой спустя три года после ее смерти.

Не всякий фейк — deep

Вряд ли технология deepfake радикально изменит жизнь. Манипулировать общественным сознанием и обманывать людей прекрасно получалось даже в те времена, когда не было компьютеров. Нет принципиальной разницы, позвонит вам живой «сотрудник безопасности банка» или сгенерированный бот. Не слишком важно, как именно создана фотография в соцсети, вызвавшая ваше возмущение, — ​в ходе постановочной съемки со статистами или с помощью нейросети. Важно сохранять здравый смысл и критически относиться к любой информации.

ЯРОСЛАВ КЕМНИЦ
ЯРОСЛАВ КЕМНИЦ, Креативный ПРОДЮСЕР СТУДИИ MAGIC FACTORY, VR‑ХУДОЖНИК, ТЕОРЕТИК В ОБЛАСТИ ВИЗУАЛЬНЫХ ЭФФЕКТОВ

Идея замены реального актера его искусственным двойником не нова. Вспоминается фильм «Форрест Гамп», в котором Форрест «встречался» с президентом Кеннеди, «Возвращение супермена», где реконструировали Марлона Брандо, «Новогодний Огонек» 2000 года на канале «РЕН ТВ», где мне удалось заставить политиков полтора часа петь и танцевать. Примеров было много и будет еще больше. Были и будут скандалы, поэтому логично разделить проблему на две — ​подделка и добровольное использование. Подделка — ​преступление, поэтому не обсуждаем. Что касается доброволь­ного использования образа в кино, то тут уже возникают творческие вопросы. Игра хорошего актера всегда уникальна, посредственного — ​шаблонна, так что любая замена по высшему счету будет заметна. И в первую очередь из-за различий в мимике. А в ширпотребе, где не стоит тонких задач, дипфейки безу­словно займут свое место. Это как фастфуд и высокая кухня: ​одни едят дипфейки, другие идут на игру любимого актера.

Читайте также, что значит быть грамотным в современном мире:

Читать на ЦО.РФ

Цифровая грамотность  Что значит быть грамотным в современном мире

В 2022 году уровень цифровой грамотности россиян составил 71 %. Результат текущего года мы узнаем совсем скоро: установить его помогает всероссийский «Цифровой диктант», который организует Российская ассоциация электронных коммуникаций. Директор РАЭК Сергей Гребенников рассказал «Цифровому океану», что значит быть грамотным в современном мире

Использованные источники: Материал опубликован в журнале «Цифровой океан» № 20 (ноябрь-декабрь), 2023, Xose Bouzas / Hans Lucas / Hans Lucas via AFP / East News, Madiha Ali / Moment / Getty Images, ИЗ АРХИВА ЯРОСЛАВА КЕМНИЦА, #MalariaMustDie petition.malariamustdie.com © 2023 Malaria No More UK, Celal Gunes / ANADOLU AGENCY / Anadolu via AFP / East News, Jung Yeon-je / AFP / East News, Sanjeev Verma / Hindustan Times via Getty Images