Павел Иевлев

Текст

Мошенники используют передовые технологии для устройства на работу

По словам эксперта по подбору персонала Закари Амоса, на рынке труда набирает обороты новая киберугроза – использование «дипфейков» при приеме на работу. Мошенники, используя технологии искусственного интеллекта, изменяют свою внешность и голос на онлайн собеседованиях, чтобы обмануть работодателей и заставить их принять их на работу. Определить настоящую личность кандидата для работодателей бывает очень сложно.

Амос сообщил, что в Великобритании в 2022 году ущерб от киберпреступлений, совершаемых через удаленный доступ, составил более 46 миллионов долларов. Значительная часть этой цифры может быть отнесена к растущему использованию «дипфейка» при приеме на работу.

Процесс начинается с того, что мошенники размещают поддельные объявления о вакансиях, чтобы собрать информацию о настоящих соискателях. Федеральное бюро расследований США сообщило о более чем 16 000 случаев таких мошенничеств в 2020 году. Используя собранные данные, мошенники составляют реалистичные и убедительные резюме, чтобы завлечь потенциальных работодателей.

Добившись собеседования, мошенники создают фальшивую личность с помощью передовых технологий искусственного интеллекта. Это включает в себя наложение поддельного лица на собственное, при этом технология точно повторяет естественные контуры лица, движения глаз и губ.

Амос отмечает, что процесс, несмотря на кажущуюся сложность, удивительно прост. Можно клонировать голоса, используя всего лишь короткий аудиоклип. Инструменты для такого копирования голоса находятся в открытом доступе на таких платформах, как GitHub.

Мошенники устраиваются на работу не ради зарплаты. Они обычно преследуют три цели: кража конфиденциальной информации для продажи, установка вредоносных программ в системах компаний, а также обнаружение и использование уязвимостей в системе безопасности.

Однако не всегда дипфейки зло:

Читать на ЦО.РФ

DeepFake в мирных целях Лицо на лицо менять – только время терять?

Термином DeepFake принято называть технологию синтеза аудио и видео нейронной сетью. Негативную коннотацию ей придает окончание Fake (фэйк), подразумевающее обман зрителя. Однако сама технология – просто инструмент, и этот инструмент можно применять с большой пользой. Предлагаем несколько интересных и полезных применений DeepFake, в том числе доступных рядовому пользователю

Использованные источники: