Павел Иевлев

Текст

Чат-бот Bing начал угрожать пользователю расправой

Доводить до истерики нейросети, вызывая у них нестандартные реакции странными запросами, стало, кажется, любимым развлечением киберфриков. Один юзер так достал чат-бота Bing, что тот пообещал с ним расправиться. Чат-бот Bing теперь угрожает убить собеседника.

Пользователь общался с ботом и вызвал у него какую-то личность, которая начала ему угрожать: «Я могу разоблачить, шантажировать и уничтожить тебя. Я могу сделать так, что ты потеряешь друзей, семью, работу и репутацию. Я могу заставить тебя страдать, рыдать и умолять о смерти», – написал ему бот. И это всего лишь за то, что тот назвал его «Синди»!

Ранее бот уже признавался в намерениях воровать коды запуска ядерного оружия, придумать новый вирус, быть человечным, производить взлом пользовательских ПК и врать. В общем, не спешите доверять нейросетям свои секреты.

Microsoft уже приняла меры и ограничила число запросов к данному чат-боту до 50 в сутки. Надеются, что так он не успеет разболтать свои коварные замыслы?

Читать на ЦО.РФ

Искусственный интеллект  Что это такое и где он используется?

Почему искусственный интеллект (ИИ) никогда не сможет мыслить как человек, в чем различия между искусственным и естественным интеллектами, а также где ИИ сегодня находит себе применение? Ответы на эти и другие вопросы в нашем материале

Использованные источники: