Александр Пономарёв

Текст

Арбитражный суд Москвы обязал компанию выплатить компенсацию за использование видеоролика, созданного с использованием технологии дипфейк

Как сообщает ТАСС со ссылкой на картотеку Арбитражного суда Москвы, компания «Адженда медиа групп» создала по заказу «Рефейс технолоджис» получасовой рекламный видеоролик, где человек с лицом Киану Ривза несколько раз проверяет, выключил ли он утюг перед выходом из дома и даже фотографирует его, однако в итоге уходит из квартиры с утюгом в руке.

Как выяснилось, это видео скачала и использовала для своих целей компания «Бизнес-аналитика». Поскольку никаких прав на видео у компании не было, владелец ролика обратился в суд с требованием компенсации за нарушение прав. Ответчик с требованиями не согласился и указал, что видеоролик якобы не является объектом авторского права якобы ввиду наличия дипфейка.

Суд его доводы отклонил, указав, что «технология deepfake — это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания». В решении суда указано, что применение технологии отнюдь не свидетельствует о том, что видеоролик доступен для свободного использования без согласия правообладателя, или же о том, что участвовавшие в создании ролика люди не признаются его авторами.

Здесь мы рассказываем, как мошенники используют нейросети для обмана:

Читать на ЦО.РФ

Верю не верю Как генеративно-состязательные нейросети (GAN) стали инструментом мошенников

Генеративно-состязательные нейросети (GAN) активно используют мошенники в своих манипуляциях для имитации чужой личности. Поэтому если кто-то из членов семьи неожиданно набрал вас по видеосвязи и срочно попросил помочь деньгами, не спешите открывать приложение банка. Перезвоните сами и проверьте: возможно, вы разговаривали с нейросетью-мошенником, которая ловко имитирует чужую личность

Использованные источники: Freepik