Александр Пономарёв

Текст

Специальные службы США, Великобритании, Германии, Израиля, Японии и ещё 13 государств подписали соглашение о защите от неправомерного использования ИИ

Документ на 20 страницах описывает рекомендации для компаний‑разработчиков искусственного интеллекта с целью защиты их систем от злоумышленников. К примеру, компаниям, разрабатывающим и внедряющим ИИ, рекомендуют делать системы «безопасными по структуре» — чтобы их не могли использовать в своих интересах киберпреступники и к ним не попадали конфиденциальные данные пользователей.

Кроме того, они должны учитывать потенциальные риски на всех стадиях работы с ИИ. Соглашение не является обязательным к применению, но эксперты считают документ, подписанный 18 странами, довольно важным прецедентом. Директор американского Управления кибербезопасности и Агентства по безопасности инфраструктуры Джен Истерли заявил, что этот документ подчеркивает важность безопасности при разработке ИИ.

«Системы искусственного интеллекта подвержены новым уязвимостям, которые необходимо учитывать наряду со стандартными угрозами кибербезопасности. Когда темпы развития настолько высоки, как в случае с искусственным интеллектом, безопасность систем часто может отходить на второй план. Она должна быть основным требованием не только на этапе разработки, но и на протяжении всего жизненного цикла системы», — гласит документ.

Здесь мы рассказываем, что такое искусственный интеллект и как он работает:

Читать на ЦО.РФ

Искусственный интеллект  Что это такое и где он используется?

Почему искусственный интеллект (ИИ) никогда не сможет мыслить как человек, в чем различия между искусственным и естественным интеллектами, а также где ИИ сегодня находит себе применение? Ответы на эти и другие вопросы в нашем материале

Использованные источники: Freepik