ИИ не угроза Они не могут обучаться самостоятельно
Исследователи из Университета Бата и Технического университета Дармштадта представили новые данные, подтверждающие, что большие языковые модели, такие как ChatGPT, не способны на самостоятельное обучение и не представляют экзистенциальной угрозы человечеству. Результаты исследования были опубликованы в рамках 62-го ежегодного собрания Ассоциации компьютерной лингвистики (ACL 2024).
Согласно отчету, языковые модели обладают ограниченной способностью следовать инструкциям и преуспевать во владении языком, но не могут приобретать новые навыки без явных на то инструкций. Это делает их контролируемыми, предсказуемыми и безопасными в использовании.
Профессор Ирина Гуревич и доктор Хариш Тайяр Мадабуши, руководители исследовательской группы, провели эксперименты, чтобы проверить возможности моделей справляться с задачами, с которыми они никогда ранее не сталкивались. Результаты этих тестов подтвердили, что модели не способны на сложное мышление или самостоятельное принятие решений.
«Наше исследование показывает, что страхи относительно того, что ИИ может представлять собой угрозу на уровне человечества, чрезмерны и могут мешать дальнейшему развитию и применению этих технологий», — прокомментировал доктор Тайяр Мадабуши.
Однако исследователи подчеркнули, что это не означает отсутствие рисков, связанных с использованием ИИ. «Важно устранять риски, такие как создание фейковых новостей или усиление возможностей для мошенничества, но без излишней регуляции, основанной на недоказанных предположениях о возможностях ИИ», — добавила профессор Гуревич.
Что принесет человечеству стремительный прогресс ИИ:
Использованные источники: