Появились призывы уничтожить ИИ Эксперты пугают гибелью человечества
Элиэзер Юдковски — специалист по теории принятия решений из США, возглавляет исследования в Исследовательском институте машинного интеллекта. Он работает над проблемой искусственного интеллекта с 2001 года и широко известен как основатель этой области знания. Он не присоединился к недавнему «письму испуганных ученых», призывающему к мораторию на развитие ИИ. Но не потому, что не считает его опасным. Наоборот: он воздержался от подписания, потому что считает, что письмо преуменьшает серьезность ситуации и требует слишком мало.
«Многие исследователи, занимающиеся этими вопросами, включая меня, ожидают, что наиболее вероятным результатом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдаленно похожих на нынешние, является то, что буквально все на Земле умрут. Не как в «возможно, возможно, какой-то отдаленный шанс», а как в «это очевидная вещь, которая произойдет», — написал Юдковский. — Если кто-то создаст слишком мощный ИИ, в нынешних условиях, я ожидаю, что вскоре после этого погибнет каждый отдельный представитель человеческого вида и вся биологическая жизнь на Земле».
Эксперт считает, что «если вы не можете быть уверены, создаете ли вы самосознающий ИИ, эта неуверенность означает, что вы понятия не имеете, что делаете, и это опасно, и вы должны остановиться».
Юдковский заявил, что угроза тотальной ядерной войны менее опасна: «Если разведка одной из стран выяснит, что в некой стране установлен мощный кластер видеокарт, то война между этими государствами будет незначительной проблемой, нарушение моратория на развитие ИИ важнее. В этом случае стоит ожидать незамедлительного авиаудара по этому дата-центру».
В общем, мы все умрем. Опять.
А ИИ останется:
Использованные источники: