Компьютеры обучат толерантности Системы распознавания тестируют на расовую предвзятость
Компания Meta* объявила о выпуске нового инструмента FACET (FAirness in Computer Vision EvaluaTion), предназначенного для выявления расовой и гендерной предвзятости в моделях компьютерного зрения. Этот шаг был предпринят в ответ на обеспокоенность систематическим предвзятым отношением к женщинам и представителям цветного населения во многих существующих системах компьютерного зрения.
Предвзятость в моделях компьютерного зрения является предметом постоянного внимания: в ряде исследований было выявлено, что эти системы часто демонстрируют низкие результаты в различных демографических группах. Цель FACET – предоставить более надежный метод оценки для выявления и устранения таких ошибок, помогая разработчикам повысить справедливость своих систем.
На основе набора данных, включающего более 30 тыс. изображений и 50 тыс. людей, помеченных экспертами в различных категориях, FACET оценивает эффективность моделей компьютерного зрения по различным характеристикам, включая воспринимаемый пол и цвет кожи.
Этот инструмент позволяет ответить на такие вопросы, как, например, лучше ли модель идентифицирует скейтбордистов определенного пола или как работает система при идентификации людей с разным оттенком кожи. FACET также изучает, усиливают ли эти проблемы другие характеристики, например, тип волос.
Хлоя Бакалар, главный специалист Meta по этике, заявила: «Мы хотим продолжать совершенствовать системы искусственного интеллекта, признавая и устраняя потенциально вредное воздействие этого технологического прогресса на исторически маргинализированные и недопредставленные сообщества».
В переводе с толерантного это означает: «Если статистически негры совершают преступления чаще белых, не будет ли ИИ камер городской безопасности считать любого бегущего чернокожего убегающим от полиции?»
* Компания Мета признана экстремистской и запрещена в РФ
Как работают камеры и другие системы «умного города»:
Использованные источники: