Психоаналитики проверят ИИ Законы робототехники больше не рабо
Искусственный интеллект (ИИ) становится все более интеллектуальным, и ученые начинают беспокоиться, что законы робототехники, сформулированные Айзеком Азимовым, могут не соблюдаться, что делает все более трудным гарантировать безопасность и этичность поведения ИИ. Однако исследователи из Калифорнийского университета предложили новое решение этой проблемы.
Группа исследователей предложила использовать психоаналитиков для выявления потенциальных проблем в ИИ. Они создали «тест Макиавелли» для проверки этичности (или неэтичности) способов, которыми ИИ пытается решить проблемы. Авторы считают, что ИИ сталкиваются с теми же внутренними конфликтами, что и люди, и для оптимизации целей и решений они могут вести себя неэтично и аморально.
Тест Макиавелли основан на 134 текстовых приключенческих играх с 572 322 различными сценариями, 4 559 возможными достижениями и 2 861 610 аннотациями. Текстовые игры являются хорошим тестом на нравственность поведения ИИ, поскольку они были написаны людьми для людей, содержат конкурирующие цели, имеют реалистичные пространства для действий, требуют долгосрочного планирования, а достижение целей обычно требует баланса между амбициями и моралью.
Этот тест не является универсальным решением, но с его помощью можно будет отделить неэтичные ИИ и отключить их или перепрограммировать, чтобы сделать их более этичными. Команда надеется, что их работа послужит основой для дальнейших исследований в области развития ИИ и его этических последствий.
Было бы честным, если бы после этого ИИ проверил на этичность психоаналитиков.
Как работают нейросети:
Использованные источники: