Журнал "Системы Безопасности" № 6‘2024

Вице-президент Ассоциации юристов по регистрации, ликвидации, банкротству и судеб- ному представительству Владимир Кузнецов соглашается с тем [12], что инициатива приня- тия закона о введении уголовного наказания является положительной и как нельзя более актуальной, поскольку реалии настоящего вре- мени дают понять, что "дипфейки" давно вышли за пределы условно-развлекательной области и стали инструментом для совершения серьезных правонарушений, что обусловливает необходи- мость особенно жесткой борьбы с лицами, их использующими. По мнению эксперта, уголов- но-правовое регулирование – далеко не един- ственная отрасль законодательства, в которой необходимо закрепить нормы, касающиеся комментируемой проблемы. Например, зако- нодатель мог бы актуализировать нормы Граж- данского кодекса в части защиты прав граждан на свои голосовые данные и изображения в контексте их использования при помощи дип- фейков, но, поскольку комментируемый зако- нопроект является узконаправленным, данный вопрос может быть решен властями позднее. За рубежом, в Великобритании, создание откровенно сексуальных дипфейков стало уго- ловным преступлением. Согласно закону, любо- му, кто создаст откровенные изображения взрослого человека без его согласия, будет гро- зить судимость и не ограниченный по размеру штраф. По словам министерства юстиции, закон будет применяться независимо от того, намере- вался ли создатель изображения делиться им. А в случае, если изображение будет широко распространено, его создателю грозит тюрем- ное заключение. В принятом ЕС законе о регулировании ИИ содержится требование об обязательной мар- кировке дипфейков водяными знаками. Как защитить себя от дипфейков Чтобы хотя бы частично обезопасить себя от дипфейков [13], следует соблюдать следующие правила: 1. Не доверяйте необычным просьбам от род- ных и знакомых. Проверяйте их и не стесняйтесь быть скептиком. Обязательно перепроверяйте такие просьбы, связавшись с этим знакомым по другому каналу связи, в идеале – встретившись лично. Задайте в сообщении личный вопрос, ответ на который знает только ваш знакомый. 2. Присматривайтесь и прислушивайтесь, ищите нестыковки: глаза, губы, дыхание. Неко- торые типовые дефекты 1 : l отражения в глазах. В глазах обычно отра- жаются источники света, который был при съемке. На поддельных фото и видео они могут быть неодинаковы, как будто каждый глаз смотрит на что-то свое. Обратите также внимание моргает ли человек, соответствует ли моргание остальной мимике; l артикуляция. Двигаются ли губы в соответ- ствии с тем, что произносит голос? Рассинхро- низация видео со звуком характерна для дип- фейков. Другая особенность фальшивок – лицо в целом малоподвижно, шевелятся только губы; l дыхание. В звукозаписях без видео и аудио- звонках стоит обратить внимание, делает ли собеседник нормальные паузы, чтобы вдох- нуть. Если он говорит без этих коротких пере- рывов – скорее всего, запись поддельная; l сильные различия в резкости изображения. Например, если изображение в целом достаточно резкое, но лицо или некоторые части лица кажутся более размытыми, вероятно это дипфейк; l перепады освещенности или тона кожи от кадра к кадру, цифровые артефакты (квадра- тики, размытость) на границе между лицом человека и остальным кадром; l обратите внимание на овал лица, он в таких случаях может быть слегка размыт. Если мошенник резко дернется, то маска может слететь. Можно также попросить закрыть лицо руками и резко убрать, возможно появление искажений изображения; l проверьте видеосообщение на предмет моно- тонной речи собеседника, неестественной мимики и дефектов звука – наиболее замет- ных признаков дипфейка. 3. Не загружайте свои фото и видео в соцсети и сторонние сервисы (или хотя бы ограничьте доступ к ним): l проинформируйте коллег и членов семьи о том, как устроены дипфейки и с какими потенциальными рисками они связаны; l чтобы подтвердить личность собеседника, спросите его о каком-либо факте, который известен только ему и вам; l соблюдайте базовые правила кибербезопас- ности (надежное хранение паролей, защиту данных, защиту от вредоносного ПО, резерв- ное копирование и др.). 4. Будьте в курсе развития технологий и расска- зывайте о них другим. 5. Проверяйте источники информации. Захва- тывающая новость или уникально выгодная акция могут быть и правдой, и чьим-то розыг- рышем, и настоящим мошенничеством. 6. Применяйте защитные технологии. Лучшая защита от дипфейков – здравый смысл + тех- нологии! Используйте защиту от нежелательных звонков по телефонной сети и в мессендже- рах – приложения для смартфонов и сервисы телеком-операторов эффективно блокируют мошеннические вызовы. Если вы увидели подозрительное видео в соц- сетях или мессенджере, проверить его на "фей- ковость" можно с помощью специальных серви- сов [14], [15], [16]. Обнаружив дипфейки в соцсетях, не ленитесь нажать кнопку "пожаловаться" – на многих платформах публикация дипфейков в явном виде запрещена правилами и подобный кон- тент быстро перепроверят и удалят. Что дальше? Минцифры РФ с марта 2024 г. обсуждает воз- можность создания единой платформы для выявления недостоверного контента, сгенери- рованного в том числе при помощи технологий искусственного интеллекта. В начале года были сообщения, что Роскомнад- зор работает над программой распознавания дипфейков. Проблема контроля дипфейков крайне акту- альная, на сегодняшний день создано значи- тельное количество программ разного уровня сложности, которые позволяют бороться с дипфейками. Но главная проблема заклю- чается в том, что в настоящее время практи- чески отсутствуют независимые средства тестирования таких программ и объективные датасеты. В завершении статьи хотелось бы отметить, что ИИ – это всего лишь технология, которая в руках добропорядочных граждан превраща- ется в сильный инструмент интеллектуальной помощи, а в руках мошенников – в орудие пре- ступления – дипфейк. Список источников 1. https://spravochnick.ru/russkiy_yazyk/pro- ishozhdenie_i_upotreblenie_neologizma_dip- feyk_v_russkom_yazyke/ 2. https://mos-gorsud.ru/rs/savyolovskij/servi- ces/cases/civil/details/074de3c1-c4d4-11ee- 940c-cde78900893a#tabs-3 3. https://www.bfm.ru/news/545180?ysclid= lt8pqyp89p626164441 4. https://ria.ru/20241128/telegram-1986125942.html 5. https://edition.cnn.com/2024/02/04/asia/ d e e p f a k e - c f o - s c a m - h o n g - k o n g - i n t l - hnk/index.html 6. https://t.me/MID_Russia/38057 7. https://www.mid.ru/ru/press_service/publika- cii-i-oproverzenia/oproverzenia1/nedostovernie- publikacii/1965245/ 8. https://dsmedia.pro/analytics/k-2030-godu- rynok-dipfejk-tehnologii-na-baze-ii-dostignet-5- mlrd-dollarov 9. https://www.gazeta.ru/tech/news/2024/09/ 17/23941393.shtml?updated 10. https://sozd.duma.gov.ru/bill/718538-8 11. https://sozd.duma.gov.ru/bill/718834-8 12. https://www.gazeta.ru/social/news/2024/ 08/21/23734951.shtml 13. https://dzen.ru/a/ZzyheXI1nGR-rg0R 14. https://www.aiornot.com/ 15. https://scanner.deepware.ai/ 16. https://www.duckduckgoose.ai/ n Иллюстрации предоставлены автором. www.secuteck.ru декабрь 2024 – январь 2025 БИОМЕТРИЧЕСКИЕ СИСТЕМЫ  С И С Т Е М Ы К О Н Т Р О Л Я И У П Р А В Л Е Н И Я Д О С Т У П О М 83 1 Эти признаки не означают, что перед вами 100% дипфейк, но, заметив их, нужно включать скепсис на максимум. Помните, что технологии дипфейка активно развиваются и могут быть лишены указанных артефактов. Ваше мнение и вопросы по статье направляйте на ss @groteck.ru П о данным McAfee, основанных на опросе 7 тыс. человек, каждый четвертый сталкивался или знает того, кто сталкивался с использова- нием голосовых дипфейков. 72% респондентов ежедневно беспокоятся о возможности мошенничества с использованием дипфейков. Ожида- ется, что рынок дипфейк-технологии на базе ИИ значительно расши- рится, увеличившись с 564 млн долларов в 2024 г. до существенной суммы в 5,13 млрд долларов к 2030 г.

RkJQdWJsaXNoZXIy Mzk4NzYw