Microsoft ограничил тестовый доступ к чат-боту Bing Количество запросов теперь лимитировано
В Microsoft отметили, что в открытые личные беседы с чат-ботом с большим количеством запросов вступало менее 1% тестовых пользователей. Однако проблема в том, что в этом случае после более чем 15 ответов искусственный интеллект начинал вести себя себя неадекватно. Например, чат-бот повторялся в ответах, фантазировал, ошибался и даже проявлял агрессию к пользователю.
Разработчики попросту не рассчитывали, что поисковый чат-бот заинтересует пользователей в качестве собеседника для откровенных разговоров. Корпорация рассматривает возможность разработки переключателя, который позволит выбирать между получением от чат-бота более точного ответа в режиме поиска или же получением более творческого ответа.
Длительные диалоги могут запутать искусственный интеллект, отмечают разработчики. К примеру, чат-бот может начать пытаться подражать пользователю, иронизировать и нейтрализовывать дальнейшие запросы пользователя странными ответами. С 11 февраля новая версия Bing на базе ChatGPT стала доступна для части пользователей.
Здесь мы подробно рассказываем про работу чат-ботов:
Использованные источники: