Эксперты пугают нас ИИ Написано очередное заявление

Группа всемирно признанных экспертов в области искусственного интеллекта (ИИ) объединила усилия, чтобы поднять тревогу по поводу экзистенциальных угроз, которые, по их мнению, ИИ представляет для человечества. Предупреждение было сформулировано в виде краткого заявления из 22 слов: «Смягчение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Это заявление было опубликовано некоммерческой организацией Center for AI Safety, расположенной в Сан-Франциско, и подписано видными деятелями в этой области, включая Демиса Хассабиса, генерального директора Google DeepMind; Сэма Альтмана, генерального директора OpenAI; Джеффри Хинтона и Йошуа Бенгио. Хинтон и Бенгио были двумя из трех исследователей ИИ, получивших в 2018 году премию Тьюринга, которую часто называют «Нобелевской премией по вычислительной технике», за их новаторскую работу в области ИИ.
Это предупреждение знаменует собой последнее значительное вмешательство в продолжающиеся дебаты о безопасности ИИ. Ранее в этом году в открытом письме, которое также поддержали некоторые из подписавших нынешнее заявление, предлагалось сделать шестимесячную «паузу» в развитии ИИ. Это предложение было встречено неоднозначно, причем критика варьировалась от обвинений в преувеличении рисков, связанных с ИИ, до разногласий по поводу самого предлагаемого решения.
Дэн Хендрикс, исполнительный директор Центра безопасности ИИ, пояснил, что краткость нынешнего заявления была намеренно разработана для предотвращения разногласий.
Чем страшен ИИ:
Использованные источники:
