Александр Пономарёв

Текст

Авторитетный научный журнал Nature запретил публикацию статей, в которых есть продукты генеративных инструментов искусственного интеллекта

На фоне резкого увеличения числа контента, созданного с использованием нейросетей, издание решило запретить публикацию любых исследований, которые содержат фотографии, видео и иллюстрации, полностью или частично созданные при помощи генеративных инструментов искусственного интеллекта. Ограничения не затронут статьи, посвященные непосредственно ИИ.

В Nature отмечают, что процесс публикации опирается на общую приверженность честности, что включает в себя прозрачность. Редакторы и издатели должны знать источники данных и изображений, чтобы можно было проверить их точность и достоверность, в то время как существующие инструменты генеративного ИИ не предоставляют доступ к своим источникам, чтобы провести соответствующую проверку.

Системы генеративного ИИ обучаются на защищенных авторским правом изображениях без соответствующего разрешения, что в некоторых случаях приводит к нарушениям конфиденциальности и ускоряет распространение ложной информации, считают в Nature. В издании подчеркнули, что ни один инструмент LLM не будет принят в качестве автора исследовательской работы.

Здесь мы рассказываем, что такое языковые модели и как они работают:

Читать на ЦО.РФ

ChatGPT: Языковая модель и текстовый ИИ  Что такое ChatGPT, для чего он нужен, куда развивается и что о себе думает

ChatGPT называют «прорывом, равным по значению появлению интернета», и о нем написано много статей. Однако мы решили спросить «Что такое ChatGPT?» у самого ChatGPT. Кто, как не он, имеет наилучший ответ о себе?

Использованные источники: Unsplash