ChatGPT нарушает приватность Неожиданный эффект популярной нейронки
Неожиданным аспектом работы генеративных тестовых нейросетей является риск, который они представляют для конфиденциальности каждого человека. Языковые модели, на которых их обучают, содержат огромные объемы данных. Так, например, OpenAI, компания, разработавшая ChatGPT, предоставила нейросети текстовый массив из примерно 300 миллиардов слов. В него вошли книги, статьи, веб-сайты, посты в социальных сетях – все, что лежит в открытом доступе.
Авторов этого океана контента не спросили, может ли OpenAI использовать эти данные, и их конфиденциальность никак не проверяется. Любая личная информация, которая попала в базу ChatGPT, может им быть выдана в ответ на правильно сформулированный запрос, причем несравнимо точнее, чем это сделает поисковик.
Самый простой пример – если вы написали в комментарии в соцсети свой телефон, и это попало в базу нейронки, то когда кто-то спросит у нее: «Каков телефон Васи Пупкина?» – она даст точный ответ.
Еще один шаг к «смерти приватности», о которой теперь часто говорят эксперты.
Использованные источники: