Павел Иевлев

Текст

Специалисты предупреждают, что модель работы ChatGPT несет риск конфиденциальности

Неожиданным аспектом работы генеративных тестовых нейросетей является риск, который они представляют для конфиденциальности каждого человека. Языковые модели, на которых их обучают, содержат огромные объемы данных. Так, например, OpenAI, компания, разработавшая ChatGPT, предоставила нейросети текстовый массив из примерно 300 миллиардов слов. В него вошли книги, статьи, веб-сайты, посты в социальных сетях – все, что лежит в открытом доступе.

Авторов этого океана контента не спросили, может ли OpenAI использовать эти данные, и их конфиденциальность никак не проверяется. Любая личная информация, которая попала в базу ChatGPT, может им быть выдана в ответ на правильно сформулированный запрос, причем несравнимо точнее, чем это сделает поисковик.

Самый простой пример – если вы написали в комментарии в соцсети свой телефон, и это попало в базу нейронки, то когда кто-то спросит у нее: «Каков телефон Васи Пупкина?» – она даст точный ответ.

Еще один шаг к «смерти приватности», о которой теперь часто говорят эксперты.

Читать на ЦО.РФ

Конец врачебной тайны Почему новые медицинские технологии не смогут ее сохранить

В июле 2020 Министерство экономического развития предложило отменить врачебную тайну — ​в порядке эксперимента. Инициатива рискует показаться кощунственной, если не знать: современные медицинские технологии не поддерживают конфиденциальность

Использованные источники: