Павел Иевлев

Текст

Чат-бот с искусственным интеллектом способен искажать ключевые факты с серьезными последствиями для людей

Профессор права Джонатан Терли получил тревожное письмо от коллеги-юриста из Калифорнии, который попросил чат-бота с искусственным интеллектом составить список ученых-юристов, подвергших кого-либо сексуальным домогательствам. Имя Терли было в списке, составленном чат-ботом ChatGPT компании OpenAI, который утверждал, что Терли делал комментарии сексуального характера и пытался дотронуться до студентки во время учебной поездки на Аляску, ссылаясь на несуществующую статью из The Washington Post. Терли, которого никогда не обвиняли в домогательствах к студентам, выразил обеспокоенность по поводу потенциального вреда, причиняемого подобными ошибочными утверждениями, сгенерированными языковыми ботами.

Хотя языковые боты, такие как ChatGPT, Bing от Microsoft и Bard от Google, привлекли внимание широкой общественности благодаря своей способности писать компьютерный код и сочинять стихи, их склонность генерировать потенциально опасные ложные утверждения вызывает опасения по поводу распространения дезинформации. Эти системы ИИ отвечают уверенно и могут искажать ключевые факты и даже фабриковать первоисточники для подтверждения своих утверждений. Поскольку нерегулируемое программное обеспечение ИИ все чаще используется в Интернете, возникают вопросы о том, кто несет ответственность, когда чат-боты вводят в заблуждение.

Как работает ИИ:

Читать на ЦО.РФ

Искусственный интеллект  Что это такое и где он используется?

Почему искусственный интеллект (ИИ) никогда не сможет мыслить как человек, в чем различия между искусственным и естественным интеллектами, а также где ИИ сегодня находит себе применение? Ответы на эти и другие вопросы в нашем материале

Использованные источники: