Александр Пономарёв

Текст

Корпорация Microsoft совместно с компанией Nvidia представили крупнейшую в мире генеративную языковую модель искусственного интеллекта из более чем пятисот миллиардов параметров

Microsoft и Nvidia объединили усилия для создания модели генерации естественного языка под созданием Megatron-Turing Natural Language Generation, которая содержит 530 миллиардов параметров — это самая крупная и мощная обученная монолитная трансформаторная языковая модель на сегодняшний день. MT-NLG имеет втрое больше параметров по сравнению с существующей крупнейшей моделью такого типа и демонстрирует непревзойденную точность в широком наборе задач естественного языка.

К примеру, как утверждают разработчики, она умеет предсказывать завершение текста по смыслу, понимать прочитанное, генерировать логические выводы, создавать заключения на естественном языке и различать смысл слов с несколькими значениями.

Обучение столь мощной модели стало возможным благодаря многочисленным инновациям: разработчики объединили современную инфраструктуру обучения на основе GPU с передовым программным стеком распределенного обучения. Были созданы базы данных естественного языка, включающие сотни миллиардов единиц контента, а также разработаны методы обучения для повышения эффективности и стабильности оптимизации.

Посмотрите, как работает отечественный сервис «Балабоба», который построен на языковой модели «Яндекса» YaLM, обученной на терабайтах русских текстов:

Читать на ЦО.РФ

Осторожно, написано нейросетью! Искусственный интеллект комментирует заголовки уходящей недели

Языковая модель «Балабоба» прокомментировала события уходящей недели. Под заголовками прошедших новостей вы найдете комментарии «Балабобы», а ниже – кликабельные ссылки на сами новости. Почувствуйте разницу!

Использованные источники: