Журнал "Information Security/ Информационная безопасность" #3, 2024
Реклама – двигатель дипфейков В 2022 г. в мессенджерах, соцсетях и на комьюнити-площадках сформиро- вался и до сих пор не сбавляет обороты еще один киберкриминальный тренд – сбор аудиоданных под видом приглаше- ния на озвучку рекламы и фильмов. В 2022 г. в российском онлайн-сегменте зафиксировано почти 5 тыс. таких сообщений, а в прошлом году эта цифра выросла до 7 тыс. Обычно в таком объ- явлении предлагается заработать на большом медиапроекте, сумма гонорара варьируется в пределах от 0,3 до 5 тыс. руб., но особенно насторожить потенци- альную жертву должно главное условие: от нее требуется аудиофайл, похожий на телефонный звонок. Дело в том, что речь человека сильно меняется в зависимости от ситуации: моно- лог на камеру в прямом эфире, живой разговор с другом и телефонная беседа очень различаются по интонации и тембру, поэтому преступники стараются сразу получить самый удобный для генерации звука вариант – имитацию телефонного звонка. Аудиофайлы в сочетании с пер- сональными данными владельца голоса создают новое оружие социальной инже- нерии – аудио- и видеофейки, которые затем используются для фишинговых атак. Фейковые боссы В 2024 г. в России стали распростра- няться мошеннические схемы с исполь- зованием дипфейков. На этот раз в зоне риска оказались любители голосовых сообщений: дипфейк генерируется зло- умышленниками с помощью образцов речи владельца взломанного аккаунта в Telegram или другом мессенджере. Подобную технику применили в атаке на одну из российских компаний в январе 2024 г.: от имени владельца взломанного аккаунта мошенники разослали сгене- рированные голосовые сообщения людям, которые находились с ним в одних чатах. В международной прак- тике такие кейсы тоже уже не редкость: преступники имитируют присутствие человека на видеоконференцсвязи и от его имени убеждают сотрудника пере- вести крупную сумму. В России также широко распростра- нился преступный кейс "фейковый руко- водитель". В этой схеме мошенники используют фейковый аккаунт главы организации, связываются с ее сотруд- никами и просят перевести деньги. Разу- меется, дипфейки в такой схеме в разы усиливают эффект. Защита от дипфейков: уголовная ответственность или собственная бдительность? Киберпреступники достаточно быстро внедряют дипфейки в новые и новые схемы мошенничества. Если в 2019 г. примерно 96% дипфейков были связаны с эротическим контентом, то сегодня дипфейки говорят голосом известных людей, пишут песни от имени популяр- ных исполнителей и собирают у поклон- ников деньги якобы на новый альбом. Способность искусственного интеллекта имитировать реальный голос челове- ка – это риск совершенно нового поряд- ка, с которым столкнулось общество. Со стороны финансового сектора банки усиливают защиту и проверку клиентов: при звонках сотрудники ста- раются задавать больше вопросов, чтобы точно идентифицировать клиента. В России также планируют рассмотреть законопроект об уголовной ответствен- ности за использование технологии дип- фейков в преступных целях. Его авторы предлагают установить наказание в виде штрафов вплоть до 1,5 млн руб. либо лишения свободы сроком до 7 лет, в зависимости от тяжести совершенного преступления. Для борьбы с дипфейками разраба- тываются технологические инструменты. Например, отечественная система мони- торинга аудиовизуального контента "Зефир" для выявления дипфейка использует самостоятельно обученную модель, а для поиска лица – модель Retina Face Onxx. Лучшим вариантом защиты от угрозы генеративного ИИ становится другой ИИ. Рекомендации в заключение Противодействие дипфейкам теперь становится частью киберграмотности. Каждый современный человек должен владеть этим навыком. Вот несколько приемов, которые помогут распознать потенциальный сгенерированный ИИ образ. 1. Если вы общаетесь по видеосвязи, обращайте внимание на освещенность лица, его четкость и мимику: размытое изображение, нечеткие границы лица, странные тени, застывшая мимика или неестественный оттенок кожи могут гово- рить не о плохом качестве связи, а о дип- фейке. Если ваш собеседник спокойно вертит головой, прикасается к лицу или пьет из чашки во время разговора – ско- рее всего, все в порядке, такие детали мошенникам пока не под силу. 2. В аудиозвонке распознать подделку пока сложнее, но должно насторожить отсутствие эмоций и монотонность, незнакомые интонации. В случае любого подозрительного контакта стоит пре- рвать сеанс связи и самостоятельно связаться с тем, кого вы считаете собе- седником. Нужно принять факт, что дипфейки с нами надолго. Это новая угроза в кибер- безопасности, которая будет только совершенствоваться. Рынок, финансо- вые системы и экспертиза кибербезо- пасности будут, со своей стороны, адап- тироваться и подбирать методы проти- водействия. А в компаниях стоит непре- рывно повышать цифровую грамотность сотрудников, проводить регулярные информационные кампании и обучать коллег методам выявления фейков. l 68 • УПРАВЛЕНИЕ Дипфейки в новой цифровой реальности: как распознать и не поддаться ипфейк – это искусственная генерация изображения и звука, для которой нужны исходные данные человека, чей образ пытаются создать мошенники. Во многих соцсетях контент по умолчанию находится в свободном доступе, что облегчает работу преступникам. Закрытые аккаунты тоже не становятся препятствием, их “угоняют” или взламывают с помощью социальной инженерии. С развитием искусственного интеллекта тренд на дипфейки в фишинговых атаках усилится, уверены эксперты. Д Никита Леокумович, руководитель управления цифровой криминалистики и киберразведки Angara Security Ваше мнение и вопросы присылайте по адресу is@groteck.ru Фото: Angara Security
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzk4NzYw