Александр Пономарёв

Текст

Компания Stability AI объявила о выпуске Stable Diffusion XL 1.0, которую они уже назвали наиболее продвинутой моделью преобразования текста в изображение

Модель Stable Diffusion версии XL 1.0 обеспечивает «более яркие» и «точные» цвета, а также лучшую контрастность, тени и освещение по сравнению с прежней версией, отмечает Stability AI. Модель содержит 3,5 миллиарда параметров и позволяет создавать изображения с полным разрешением в один мегапиксель «за считанные секунды» в нескольких соотношениях сторон, подчеркнули разработчики.

В XL 1.0 доступна тонкая настройка концепций и стилей, она проще в использовании и позволяет создавать сложные проекты за счет базовых подсказок на естественном языке. Модель вдобавок способна создавать продвинутые логотипы, каллиграфию и шрифты. Она поддерживает inpainting и outpainting, а также подсказки в виде картинок, и понимает как сложные, состоящие из нескольких частей инструкции, так и простые короткие подсказки.

Stability AI также выпустила бета-версию функции тонкой настройки для своего API, которая позволяет использовать всего пять изображений для генерации. Stable Diffusion XL 1.0 выпустили и для Bedrock — облачной платформы Amazon для размещения генеративных моделей искусственного интеллекта. Модель доступна на Hugging Face вдобавок к Stability API и приложениям ClipDrop и DreamStudio.

Здесь мы тестируем нейросети для генерации изображений:

Читать на ЦО.РФ

Большой тест-драйв ИИ-художников Иллюстрируем киберпанк-роман с помощью нейросетей

Нейросети давно помогают водить машины, распознавать лица и диагностировать рак. Отправят ли они на пенсию иллюстраторов? Художественный тест-драйв «Цифрового океана»

Использованные источники: Stability AI