Александр Пономарёв

Текст

Компания OpenAI объявила, что будет бороться с «галлюцинациями» ChatGPT путем внедрения нового метода обучения моделей искусственного интеллекта

В OpenAI утверждают, что даже самые продвинутые модели ИИ склонны делать ложные выводы и изобретать те или иные факты. Обычно такое происходит в тех случаях, где требуется многоступенчатое рассуждение, поскольку для ложного вывода достаточно всего одной логической ошибки. Ученые намерены поощрять ИИ за каждый правильный шаг в процессе обучения.

Раньше вознаграждение выдавалось лишь за окончательный вывод. Такой подход исследователи назвали «наблюдение за процессом» вместо «наблюдения за результатом». Это позволит прийти к более понятной модели, поскольку стратегия побуждает ИИ следовать более похожей на логику человека цепочке мыслей.

«Обнаружение и устранение логических ошибок модели, или «галлюцинаций», является важным шагом на пути к созданию искусственного интеллекта общего назначения», — подчеркнули в OpenAI. Компания выпустила сопроводительный набор данных из 800 тысяч вручную размеченных записей, которые использовались для обучения текстовой модели.

Здесь мы рассказываем, что такое ChatGPT и как он работает:

Читать на ЦО.РФ

ChatGPT: Языковая модель и текстовый ИИ  Что такое ChatGPT, для чего он нужен, куда развивается и что о себе думает

ChatGPT называют «прорывом, равным по значению появлению интернета», и о нем написано много статей. Однако мы решили спросить «Что такое ChatGPT?» у самого ChatGPT. Кто, как не он, имеет наилучший ответ о себе?

Использованные источники: