Александр Пономарёв

Текст

Microsoft ввел ограничения на доступ к чат-боту Bing для тестировщиков — не более пяти вопросов за один сеанс или 50 запросов в сутки

В Microsoft отметили, что в открытые личные беседы с чат-ботом с большим количеством запросов вступало менее 1% тестовых пользователей. Однако проблема в том, что в этом случае после более чем 15 ответов искусственный интеллект начинал вести себя себя неадекватно. Например, чат-бот повторялся в ответах, фантазировал, ошибался и даже проявлял агрессию к пользователю.

Разработчики попросту не рассчитывали, что поисковый чат-бот заинтересует пользователей в качестве собеседника для откровенных разговоров. Корпорация рассматривает возможность разработки переключателя, который позволит выбирать между получением от чат-бота более точного ответа в режиме поиска или же получением более творческого ответа.

Длительные диалоги могут запутать искусственный интеллект, отмечают разработчики. К примеру, чат-бот может начать пытаться подражать пользователю, иронизировать и нейтрализовывать дальнейшие запросы пользователя странными ответами. С 11 февраля новая версия Bing на базе ChatGPT стала доступна для части пользователей.

Здесь мы подробно рассказываем про работу чат-ботов:

Читать на ЦО.РФ

Чат-бот для души Самые общительные ИИ, которые спасают людей от одиночества

Чат-боты стали модной темой с тех пор, как престали быть забавой одиноких программистов и вышли на широкий рынок коммерческих сервисов. Службы поддержки, банковские сервисы, обратная связь с операторами сотовой связи, курьерские службы – кто только не использует ИИ для экономии на живом персонале! Но не все ИИ на службе, некоторые готовы просто поболтать

Использованные источники: