OpenAI фабрикует обвинения Возможны репутационные последствия
Профессор права Джонатан Терли получил тревожное письмо от коллеги-юриста из Калифорнии, который попросил чат-бота с искусственным интеллектом составить список ученых-юристов, подвергших кого-либо сексуальным домогательствам. Имя Терли было в списке, составленном чат-ботом ChatGPT компании OpenAI, который утверждал, что Терли делал комментарии сексуального характера и пытался дотронуться до студентки во время учебной поездки на Аляску, ссылаясь на несуществующую статью из The Washington Post. Терли, которого никогда не обвиняли в домогательствах к студентам, выразил обеспокоенность по поводу потенциального вреда, причиняемого подобными ошибочными утверждениями, сгенерированными языковыми ботами.
Хотя языковые боты, такие как ChatGPT, Bing от Microsoft и Bard от Google, привлекли внимание широкой общественности благодаря своей способности писать компьютерный код и сочинять стихи, их склонность генерировать потенциально опасные ложные утверждения вызывает опасения по поводу распространения дезинформации. Эти системы ИИ отвечают уверенно и могут искажать ключевые факты и даже фабриковать первоисточники для подтверждения своих утверждений. Поскольку нерегулируемое программное обеспечение ИИ все чаще используется в Интернете, возникают вопросы о том, кто несет ответственность, когда чат-боты вводят в заблуждение.
Как работает ИИ:
Использованные источники: