Спецслужбы подписали соглашение о безопасности ИИ Документ разработан 18 странами
Документ на 20 страницах описывает рекомендации для компаний‑разработчиков искусственного интеллекта с целью защиты их систем от злоумышленников. К примеру, компаниям, разрабатывающим и внедряющим ИИ, рекомендуют делать системы «безопасными по структуре» — чтобы их не могли использовать в своих интересах киберпреступники и к ним не попадали конфиденциальные данные пользователей.
Кроме того, они должны учитывать потенциальные риски на всех стадиях работы с ИИ. Соглашение не является обязательным к применению, но эксперты считают документ, подписанный 18 странами, довольно важным прецедентом. Директор американского Управления кибербезопасности и Агентства по безопасности инфраструктуры Джен Истерли заявил, что этот документ подчеркивает важность безопасности при разработке ИИ.
«Системы искусственного интеллекта подвержены новым уязвимостям, которые необходимо учитывать наряду со стандартными угрозами кибербезопасности. Когда темпы развития настолько высоки, как в случае с искусственным интеллектом, безопасность систем часто может отходить на второй план. Она должна быть основным требованием не только на этапе разработки, но и на протяжении всего жизненного цикла системы», — гласит документ.
Здесь мы рассказываем, что такое искусственный интеллект и как он работает:
Использованные источники: Freepik