Александр Пономарёв

Текст

Сотрудники американских компаний OpenAI, Anthropic и Cohere провели засекреченные переговоры с китайскими экспертами по безопасности искусственного интеллекта

В июле и октябре прошлого года в Женеве прошли совещания с участием американских экспертов и ученых, специализирующихся на разработках в области искусственного интеллекта, а также представителей ряда китайских институтов и компаний из той же сферы. В рамках этих встреч сторонам удалось обсудить риски, связанные с новыми технологиями, а также инвестиции в безопасность ИИ.

Главной целью этих встреч был поиск безопасного пути для разработки более сложных технологий искусственного интеллекта. Переговоры организовала консалтинговая компания Shaikh Group. «Мы увидели возможность объединить ключевых игроков из США и Китая, работающих в сфере искусственного интеллекта», — заявил исполнительный директор Shaikh Group Салман Шейх.

«Нашей главной целью было подчеркнуть уязвимости, риски и возможности, связанные с широким внедрением моделей ИИ, которые используются во всем мире. Признание этих фактов может стать основой для совместной научной работы, что в итоге приведет к разработке глобальных стандартов безопасности для моделей ИИ», — добавил он. Встреча стала редким примером китайско-американского сотрудничества на фоне гонки за превосходство в области передовых технологий.

Здесь мы рассказываем, почему люди боятся искусственного интеллекта:

Читать на ЦО.РФ

Пакт о ненападении Почему люди боятся искусственный интеллект?

Искусственный интеллект — ​это компьютерная программа. Но ни один вид программ не вызывает столько страхов, сколько ИИ. Некоторые из этих угроз признают даже специалисты. Поэтому в России уже действует альянс разработчиков ИИ, участники которого обязуются следовать строгому этическому кодексу. Сергей Израйлит, один из создателей кодекса, ответил на вопросы «Цифрового океана»

Использованные источники: Freepik