Александр Пономарёв

Текст

Национальный центр когнитивных разработок ИТМО разрабатывает сервис Expert, который позволит проверять видеоролики на предмет лжи и манипуляций

Как сообщает «Коммерсантъ», прототип сервиса был представлен Роскомнадзору на заседании экспертного совета ГРЧЦ по ИИ, после чего глава ведомства Андрей Липов попросил как можно скорее передать его на тестирование. Сервис позволяет анализировать видеозаписи на предмет лжи и представляет интерес для оперативного выявления дипфейков, уточнил глава Научно-технического центра ГРЧЦ Александр Федотов.

Как пояснили в ИТМО, Expert анализирует видео или аудио, оценивая уверенность, уровень агрессии внутренней и внешней, конгруэнтность и противоречивость, а также сравнивает слова с научными статьями и высказываниями других специалистов. Отмечается, что система заточена на работу с английским языком, но показатели уверенности, агрессивности, конгруэнтности можно извлечь на любом языке.

Доработка системы для получения текста из речи на русском языке стоит в ближайших планах. Эксперты отмечают, что более 90% российских разработок, связанных с ИИ, построены на основе открытых зарубежных библиотек вместе с дата-сетами для их обучения, поэтому и разработка ИТМО адаптирована для английского языка. Для переобучения под русский потребуется довольно большой массив данных и затраты.

Здесь мы рассказываем, что такое дипфейки и зачем они нужны:

Читать на ЦО.РФ

DeepFake в мирных целях Лицо на лицо менять – только время терять?

Термином DeepFake принято называть технологию синтеза аудио и видео нейронной сетью. Негативную коннотацию ей придает окончание Fake (фэйк), подразумевающее обман зрителя. Однако сама технология – просто инструмент, и этот инструмент можно применять с большой пользой. Предлагаем несколько интересных и полезных применений DeepFake, в том числе доступных рядовому пользователю

Использованные источники: