Александр Пономарёв

Текст

Законопроект, который закрепит в российском правовом поле понятие «дипфейк», планируют внести в Госдуму в осеннюю сессию

Как сообщают «Известия» со ссылкой на комитет Госдумы по информполитике, закрепление дипфейков в правовом поле должно помочь в борьбе с мошенничеством. Глава комитета Александр Хинштейн отметил, что нейросети все чаще используются для создания контента с реалистичной подменой фото-, видео- и аудиоматериалов. Он добавил, что отличить их от достоверного изображения становится все труднее.

По словам депутата, на базе комитета совместно с Роскомнадзором и экспертным сообществом уже разрабатывается законопроект, который даст правовое определение дипфейкам. Инициатива будет предполагать внесение изменений в уже действующее законодательство, описывая не только само понятие дипфейка, но и определенные регуляторные механизмы — как их отслеживать и кто за это будет ответственен.

На фоне актуальности проблемы документ готовится ко внесению в Госдуму уже в осеннюю сессию в этом году, уточнили парламентарии. В настоящий момент ведутся исследования по разработке технологии противодействия дипфейкам. С помощью искусственного интеллекта обучаются модели, способные определять подобные подделки.

Здесь мы рассказываем, что такое технология дипфейков и как она работает:

Читать на ЦО.РФ

DeepFake в мирных целях Лицо на лицо менять – только время терять?

Термином DeepFake принято называть технологию синтеза аудио и видео нейронной сетью. Негативную коннотацию ей придает окончание Fake (фэйк), подразумевающее обман зрителя. Однако сама технология – просто инструмент, и этот инструмент можно применять с большой пользой. Предлагаем несколько интересных и полезных применений DeepFake, в том числе доступных рядовому пользователю

Использованные источники: Unsplash