Павел Иевлев

Текст

ChatGPT стали использовать для создания полиморфных вирусов

Эксперты по кибербезопасности выразили обеспокоенность по поводу потенциального использования ChatGPT, продвинутой языковой модели, разработанной OpenAI. Стало известно, что эта система искусственного интеллекта может быть использована для создания вирусов с полиморфным кодом, который может ускользнуть от обнаружения современными антивирусными системами. Сообщается также, что хакеры используют возможности ChatGPT для создания вредоносных программ с нуля.

Способность генерировать «мутабельные» вирусы, которые могут динамически изменять свой код при каждом выполнении, сохраняя при этом свою основную функциональность, встревожила сообщество кибербезопасности. Такие полиморфные вредоносные программы представляют собой серьезную проблему для обычных антивирусных решений и современных систем обнаружения угроз.

ИТ-эксперты признают, что ChatGPT действительно обладает способностью генерировать полиморфные вредоносные программы, которые очень трудно обнаруживаются традиционными антивирусными программами. Несколько демонстраций подтверждают эту точку зрения.

Одним из ярких примеров является Джефф Симс, инженер по безопасности из компании HYAS InfoSec, который недавно опубликовал в Интернете подробный технический документ под названием «BlackMamba». Проект Симса включал разработку полиморфного кейлоггера, созданного при участии ChatGPT. Кейлоггер был разработан таким образом, чтобы изменять свой код при каждом запуске и связываться с ChatGPT для получения инструкций. Этот эксперимент показал, что злоумышленники могут использовать возможности ChatGPT для создания сложных и необнаруживаемых вредоносных программ.

Другая демонстрация была проведена компанией CyberArk, занимающейся кибербезопасностью, которая в своей статье подробно описала, как они использовали ChatGPT для модификации вредоносных скриптов. Используя код, сгенерированный ИИ, исследователи смогли создать вредоносное ПО, которое легко обходило антивирусную защиту и оставалось невидимым для систем безопасности.

Как мошенники используют нейросети:

Читать на ЦО.РФ

Верю не верю Как генеративно-состязательные нейросети (GAN) стали инструментом мошенников

Генеративно-состязательные нейросети (GAN) активно используют мошенники в своих манипуляциях для имитации чужой личности. Поэтому если кто-то из членов семьи неожиданно набрал вас по видеосвязи и срочно попросил помочь деньгами, не спешите открывать приложение банка. Перезвоните сами и проверьте: возможно, вы разговаривали с нейросетью-мошенником, которая ловко имитирует чужую личность

Использованные источники: