Александр Пономарёв

Текст

Корпорация Google запустила предварительную регистрацию для своего чат-бота LaMDA, способного вести беседу на любую тему и отвечать на любые вопросы

Модель LaMDA (Language Model for Dialog Applications), разработанная для генерации ответов на естественном языке в разговорном контексте, содержит 540 миллиардов параметров, что почти втрое больше, чем у ChatGPT от OpenAI. Она обучена на 1,56 триллиона англоязычных и многоязычных наборов текста из книг, «Википедии», документов, социальных сетей и кода GitHub.

Модель способна выполнять «цепочку рассуждений», что позволяет лучше решать задачи, требующие многошаговой арифметики или рассуждений на основе здравого смысла. LaMDA способен понимать шутки и объяснять, почему они смешные, писать новый код из простой текстовой подсказки, переводить код с одного языка на другой и исправлять ошибки компиляции в существующем коде.

Модель протестирована на 29 задачах обработки языка, включая ответы на вопросы, задачи на понимание текста и рассуждения. В 28 из 29 случаев новая модель показала себя лучше, чем системы Google GLaM, OpenAI GPT-3, DeepMind Chinchilla и Gopher, а также Nvidia и Microsoft Megatron-Turing NLG.

А здесь мы тестировали нейросети, которые рисуют изображения:

Читать на ЦО.РФ

Большой тест-драйв ИИ-художников Иллюстрируем киберпанк-роман с помощью нейросетей

Нейросети давно помогают водить машины, распознавать лица и диагностировать рак. Отправят ли они на пенсию иллюстраторов? Художественный тест-драйв «Цифрового океана»

Использованные источники: