Александр Пономарёв

Текст

Компания OpenAI объявила о старте обучения новейшей генеративной модели, которая станет новым этапом на пути к разработке так называемого общего искусственного интеллекта (AGI)

В Open AI утверждают, что новая модель искусственного интеллекта выведет компанию на следующий уровень возможностей на пути к AGI. Вместе с тем разработчики рассчитывают на активные дебаты о должном уровне безопасности использования систем искусственного интеллекта — для этого в OpenAI учредили комитет по безопасности и защите, который поможет принимать ключевые решения для будущих проектов OpenAI и взвешивать все риски.

В состав комитета вошли глава компании Сэм Альтман, члены совета директоров Брет Тейлор, Адам Д'Анджело и Николь Селигман, главный научный сотрудник Якуб Пахоцки и глава службы безопасности Мэтт Найт. В качестве приглашенных консультантов комитет планирует привлекать неких внешних экспертов по безопасности.

«Главной задачей комитета станет оценка и дальнейшее развитие мер безопасности OpenAI. На эту задачу предусмотрено 90 дней, по истечении которых комитет поделится своими рекомендациями с советом директоров. После проверки рекомендаций OpenAI поделится этой информацией публично», — указано в сообщении компании. Ведущий эксперт по машинному обучению Илья Суцкевер и глава отдела разработки ИИ Ян Лейке недавно покинули компанию из-за разногласий с Альтманом на тему дальнейшего развития ИИ.

Здесь мы рассказываем, чем же ИИ так напугал сильнейшие умы человечества:

Читать на ЦО.РФ

Страшно интересно  Чем ИИ напугал сильнейшие умы человечества

Восхищение, эйфория, надежда, тревога, страх, отвращение, ненависть. Технология искусственного интеллекта вызывает у носителей интеллекта естественного широчайшую гамму чувств. Разбираемся, почему

Использованные источники: Unsplash