Александр Пономарёв

Текст

Компания DeepMind представила алгоритм AlphaGeometry, который способен решать задачи по геометрии не хуже средного золотого медалиста Международной математической олимпиады

Разработчики отмечают, что решение геометрических задач олимпиадного уровня является важным этапом развития на пути к более совершенным системам искусственного интеллекта. DeepMind считает, что доказательство математических теорем требует как логического рассуждения, так и способности выбирать из нескольких возможных шагов. Обучение алгоритма решению задач по геометрии стало настоящим вызовом для ученых из-за сложности перевода доказательств в понятный системе формат.

При разработке AlphaGeometry они объединили модель «нейронного языка», схожую по архитектуре с ChatGPT, с «механизмом символического вывода», который использует правила для принятия решений. Чтобы решить проблему отсутствия гибкости символьного механизма, особенно при работе с большими наборами данных, DeepMind заставила нейронную модель направлять механизм дедукции в нужное русло через возможные ответы на заданные геометрические задачи.

А вместо обучающих данных были созданы собственные данные на базе сгенерированных 100 миллионов «синтетических теорем» и доказательств различного уровня сложности. На них обучили AlphaGeometry и оценили работу нейросети на олимпиадных задачах по геометрии. Алгоритм решил 25 олимпиадных задач по геометрии за стандартное время, опередив предыдущую систему на десять пунктов.

Здесь мы рассказываем, как проверяют искусственный интеллект на разумность:

Читать на ЦО.РФ

Тест Тьюринга устарел Как проверить искусственный интеллект на разумность?

Нам не обязательно знать, почему самолет летает. Но каждый пассажир хочет быть уверенным, что техника работает, как задумано. Что творится внутри искусственного интеллекта, неизвестно даже создателям подобных систем. Но люди постоянно ищут способы убедиться, что компьютерный разум действительно разумен.

Использованные источники: Freepik