Журнал "Системы Безопасности" № 5‘2023

Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , И И , И Н Т Е Р Н Е Т В Е Щ Е Й 36 З начительные темпы роста генерации дип- фейков коррелируют с уровнем развития тех- нологий искусственного интеллекта в целом. Многие ML-модели (от англ. Machine Learning Models, модели машинного обучения) стали доступны массовому пользователю, и синтез изображений и видеоматериалов с помощью нейросетей стал кратно дешевле, чем несколько лет назад. Значительно снизился также порог входа для использования технологии: общедо- ступные сервисы с ML-моделями позволяют мас- совому пользователю синтезировать изображе- ния и видео без каких-либо навыков програм- мирования. Разработчики наиболее популярных нейросетей уже начали ограничивать их массовое исполь- зование из-за регулярных нарушений этических норм: например, они не могут генерировать материалы, связанные с конкретными людьми, политикой, религией, насилием и эротикой. Создатели Midjourney ограничили к модели бесплатный доступ после распространения в сети фейкового изображения папы римского в пуховике. Однако в Сети в общем доступе можно найти менее популярные приложения, которые по-прежнему предоставляют подобную функциональность. Злоумышленники с помощью нейросетей могут создать компрометирующий контент, который можно использовать для шантажа и вымога- тельства. Дипфейки используют также в соци- альных сетях для манипулирования обществен- ным мнением. в связи с этим на b2b-рынке появилась новая ниша услуг детекции дипфей- ков. Они помогают избежать негативных последствий распространения таких материа- лов в интернете. Механика работы детекторов дипфейков Для обнаружения дипфейков ии-специалисты также используют нейросети. Для этого их обучают на дата-сетах из изображений, создан- ных всеми известными разработчику генератив- ными алгоритмами. При появлении новых спо- собов создания дипфейков нейросеть дополни- тельно обучается на новых примерах. Для проверки изображения на достоверность нейросети используют множество факторов: корректность теней и освещения в кадре, каче- ство изображений деталей на фоне и т.д. ней- росети также оставляют в дипфейках низко- уровневые артефакты из изображений, из кото- рых они сгенерированы. Они не видны челове- ческим взглядом, но заметны при максималь- ном приближении до пикселей. Для поиска этих артефактов нейросети опреде- ляют в изображении математические зависимо- сти и сопоставляют их со стандартными показа- телями на реальных фотографиях. например, средний разброс значений пикселей около носа у человека составляет 20. у синтезированных изображений в среднем этот показатель может значительно различаться. Для определения фейковых видеозаписей наи- более эффективным считается способ сопостав- ления движения губ человека в кадре со звука- ми, которые он произносит в своей речи. Точ- ность распознавания таким способом варьиру- ется от 73,5 до 97,6%. Для использования этой техники необходимо использовать нейросеть, которая умеет читать текст по губам. При проверке видеозаписи нейросети анализи- руют последовательность кадров и отслеживают динамику параметров на каждом из них, например резкое изменение текстуры кожи, размера родинки и т.д. Подобный анализ не может дать гарантированный результат, потому что у таких событий могут быть естественные причины, в частности смена освещения или дефекты камеры, и это может спровоцировать долю ложных срабатываний на реальных кад- рах. Однако эта доля незначительна относи- тельно общего количества распознанных дип- фейков. Современные детекторы дипфейков также фокусируются на блендинге – финальном этапе генерации дипфейка, в котором синтезирован- ное изображение накладывается на лицо реаль- ного человека. Этот процесс также оставляет в материалах характерные артефакты, которые детектируются нейросетями. Один из наиболее перспективных разрабаты- ваемых алгоритмов распознавания фейков – мультимодальная модель, которая при анализе исходных материалов использует граф знаний. Это семантическая сеть данных, которая хранит информацию о различных объектах и взаимо- связях между ними. С ее помощью нейросеть сможет проверить достоверность материалов на основе открытых данных из Сети. например, при распространении в Сети фото- графий последствий сильного землетрясения в Москве такие материалы будут распознавать- ся как фейк даже при очень высоком качестве синтеза, если в Сети не будет других данных об этом катаклизме. При проверке видео с извест- ным актером ML-модель сможет определить его личность, получит детали биографии и сопоставит их с обстоятельствами на записи. Таким образом, "запись" совместного концерта Дэвида Боуи и Клавы Коки искусственный интеллект определит как фейк, потому что он "знает", что публичная деятельность российской певицы началась позже смерти Боуи. Основные заказчики детекторов Ключевыми заказчиками сервисов для детек- ции дипфейков являются банки и другие финансовые организации, которым критически октябрь – ноябрь 2023 www.secuteck.ru СПЕЦПРОЕКТ РЕшЕния на ОСнОвЕ иСКуССТвЕннОгО инТЕллЕКТа Александр Паркин Руководитель исследовательских проектов MTS AI www.googleusercontent.com Дипфейки: как определить подделку и обезопасить пользователей от мошенников Одной из ключевых проблем цифровой безопасности становится стремительный рост генерации фейковых текстов, видео- и аудиозаписей с помощью искусственного интеллекта (ИИ). По оценкам ИИ-разработчика DeepMedia, в 2023 г. количество голо- совых дипфейков возросло в восемь раз по сравнению с прошлым годом, а видео- дипфейков – в три раза. К концу года общее количество дипфейков в соцсетях достиг- нет 500 тыс. материалов по всему миру, прогнозируют аналитики

RkJQdWJsaXNoZXIy Mzk4NzYw