Александр Пономарёв

Текст

Роспатент зарегистрировал два патента на новые технологии, созданные в рамках проведенного «Сбером» исследования по выявлению дипфейков

Как сообщает пресс-служба «Сбера», результатом работы является повышение точности и эффективности обнаружения синтетического изменения изображений лиц людей на видео. Основу технологий составляет ряд ансамблей нейросетевых моделей класса EfficientNet, а также метод амплификации и анализа средствами ИИ микроизменений в цветах объектов на кадрах.

Объединенные в одну систему, они позволяют с высокой точностью определить синтетически измененные изображения лиц на видео. Особенностью системы является возможность обработки видеоконтента с несколькими лицами в кадре.

В этом случае система выявляет отдельное лицо, созданное синтетическим образом, и оценивает его достоверность, что позволяет противодействовать ряду методов обхода систем выявления дипфейков. Показатели эффективности системы при замерах на независимых тестовых выборках составили 98%, что существенно выше показателей опубликованных аналогов, отмечает «Сбер».

Эти технологии пригодятся для защиты от кибератак с обходом системы распознавания лиц, выявления информационных атак и защиты переговоров по видеосвязи.

Здесь мы подробно разбирали, что такое дипфейки и зачем они нужны:

Читать на ЦО.РФ

DeepFake в мирных целях Лицо на лицо менять – только время терять?

Термином DeepFake принято называть технологию синтеза аудио и видео нейронной сетью. Негативную коннотацию ей придает окончание Fake (фэйк), подразумевающее обман зрителя. Однако сама технология – просто инструмент, и этот инструмент можно применять с большой пользой. Предлагаем несколько интересных и полезных применений DeepFake, в том числе доступных рядовому пользователю

Использованные источники: