Водяные знаки на сгенерированных изображениях научились удалять И довольно легко
Генераторы изображений на базе искусственного интеллекта все чаще применяются для создания изображений и видеороликов несуществующих событий, которые могут использоваться для намеренной дезинформации. Власти разных стран предложили разработчикам внедрить маркировку подобного контента, и компании Alphabet, Amazon, Microsoft и OpenAI согласились это сделать, однако реализовать это на практике оказалось непросто.
Создаваемые при генерации изображений водяные знаки можно удалить двумя разными способами. Диффузионная очистка позволяет уничтожать водяные знаки, размещенные на картинке с использованием методов с низким уровнем возмущений, таких как RivaGAN и WatermarkDM.
Для методов с высоким уровнем возмущений вроде StegaStamp применялась атака с подменой модели — она заставляет используемые для анализа ИИ системы идентифицировать сгенерированные изображения как «настоящие». Вероятно, теперь IT-гигантам придется искать новые способы маркировки.
Здесь мы рассказываем, как нейросети обрабатывают изображения:
Использованные источники: University of Maryland