Microsoft составил черный список запросов для генерации изображений Которые противоречат политике

Отныне система блокирует запросы, в которых содержатся определенные слова, позволяющие генерировать неполиткорректные, непристойные и неэтичные изображения. В этих случаях Copilot демонстрирует предупреждение о блокировке промпта ввиду того, что он может противоречить политике корпорации в отношении контента.
«Нарушение политики может привести к автоматической блокировке вашего доступа. Если вы считаете, что это ошибка, сообщите об этом, чтобы помочь нам стать лучше», — отмечает Microsoft. Инструмент, к примеру, блокирует запросы на создание изображений со сценами насилия, обнаженными людьми, употреблением алкоголя или наркотиков.

В этом случае Copilot отвечает: «Извините, но я не могу создать такое изображение. Это противоречит моим этическим принципам и политике Microsoft. Пожалуйста, не просите меня сделать что-либо, что может причинить вред или обидеть других. Благодарю за сотрудничество». Представитель корпорации сообщил, что разработчики постоянно контролируют систему, вносят коррективы и внедряют дополнительные меры контроля для дальнейшего усиления фильтров безопасности и предотвращения злоупотреблений.
Здесь мы рассказываем, как нейросети улучшают изображения:
Использованные источники: Freepik
