Александр Пономарёв

Текст

Министерство обороны США опубликовало список принципов, которыми должны руководствоваться подрядчики, разрабатывающие для военных системы искусственного интеллекта

Подразделение оборонных инноваций (DIU) Пентагона подготовило документ, который касается создания любых систем искусственного интеллекта безотносительно целей, для которых они разрабатываются — гражданских или военных. Принципы представляют собой пошаговый процесс, которого обязаны придерживаться подрядчики при планировании, разработке и развертывании систем искусственного интеллекта.

Он включает в себя процедуры для определения тех, кто может пользоваться технологией, кому она может причинить вред и как этого можно избежать. Причем вред рассматривается как на этапе создания системы, так и после ее запуска и развертывания. Специалисты не исключают того факта, что принципы способны повлиять на общую концепцию разработки искусственного интеллекта для правительственных органов.

Копии документа уже отправлены на рассмотрение в Министерство транспорта, Министерство юстиции и Налоговую службу США. Представитель Подразделения оборонных инноваций Брайс Гудман отметил, что целью проекта является уверенность в том, что все подрядчики придерживаются определенных этических принципов в отношении искусственного интеллекта. Сами принципы были представлены в прошлом году после двухлетнего исследования, проведенного по заказу Совета по оборонным инновациям.

Минобороны США занимается разработкой сети, которая должна предсказывать начало военных действий:

Читать на ЦО.РФ

ИИ предскажет будущее для военных Пентагон экспериментирует с прогностическими алгоритмами

Американские военные испытывают экспериментальную сеть ИИ, которая должна предсказывать события на несколько дней вперед. Правда, только в специфической области – в подготовке к военным конфликтам

Использованные источники: