Александр Пономарёв

Текст

Корпорация Microsoft обновила помощника на базе искусственного интеллекта Copilot для предотвращения злоупотреблений и генерации непристойных изображений

Отныне система блокирует запросы, в которых содержатся определенные слова, позволяющие генерировать неполиткорректные, непристойные и неэтичные изображения. В этих случаях Copilot демонстрирует предупреждение о блокировке промпта ввиду того, что он может противоречить политике корпорации в отношении контента.

«Нарушение политики может привести к автоматической блокировке вашего доступа. Если вы считаете, что это ошибка, сообщите об этом, чтобы помочь нам стать лучше», — отмечает Microsoft. Инструмент, к примеру, блокирует запросы на создание изображений со сценами насилия, обнаженными людьми, употреблением алкоголя или наркотиков.

В этом случае Copilot отвечает: «Извините, но я не могу создать такое изображение. Это противоречит моим этическим принципам и политике Microsoft. Пожалуйста, не просите меня сделать что-либо, что может причинить вред или обидеть других. Благодарю за сотрудничество». Представитель корпорации сообщил, что разработчики постоянно контролируют систему, вносят коррективы и внедряют дополнительные меры контроля для дальнейшего усиления фильтров безопасности и предотвращения злоупотреблений.

Здесь мы рассказываем, как нейросети улучшают изображения:

Читать на ЦО.РФ

Как улучшить фотографии нейросетью? Основные методы ИИ-обработки изображений

Улучшение качества фотографий с помощью нейронных сетей подразумевает обучение сети для изучения моделей и характеристик высококачественных изображений, а затем использование этой сети для создания или улучшения новых изображений.

Использованные источники: Freepik