Журнал "Системы Безопасности" № 2‘2025

1. Ограничение производства дипфейков (конт- роль за распространением и использованием технологий создания дипфейков). 2. Ограничение распространения дипфейков через каналы социальных медиа (отслежива- ние, модерация, блокировка). 3. Ограничение потребления дипфейков через развитие навыков и инструментов цифровой гигиены на уровне пользователей (распознава- ние и критическое отношение к медиаконтенту). Рассмотрены способы борьбы с дипфейками и профилактика их негативного влияния. Спосо- бы разбиты на пять групп: Группа 1. Разработка технологий для обнаруже- ния дипфейков. Группа 2. Правовое регулирование. Группа 3. Образование и повышение осведом- ленности. Группа 4. Этические стандарты и саморегулиро- вание. Группа 5. Сотрудничество между государствен- ными и частными секторами. В рамках данной статьи среди этих способов борьбы с дипфейками следует обратить внима- ние на мероприятия, предлагаемые в группе 4 – "Этические стандарты и саморегулирование": l разработка и внедрение этических кодексов, регламентов использования синтетического контента СМИ; l разработка и внедрение этических стандартов и практик саморегулирования компаниями, работающими с технологиями искусственного интеллекта, для предотвращения злоупотреб- лений дипфейками. Рассмотрим изложенные в данной работе при- меры продуктов, предназначенных для борьбы с дипфейками (первые четыре места по числу цитирований экспертами), в таблице. Российскими фирмами также ведется работа по созданию средств для борьбы с дипфейками. Челябинская фирма 3DiVi заканчивает работу над проектом BAF (Biometric Anti Fraud). В настоя- щее время оформлена международная заявка PCT (Patent Cooperation Treaty) на метод защиты. В ближайшем релизе библиотеки FaceSDK мос- ковской фирмы Tevian планируется добавление алгоритма для борьбы с дипфейками. Отмечая отдельные программы для противо- действия дипфейкам, эксперты указывают не только на сравнительно невысокую эффектив- ность существующих технических средств защи- ты, в частности по обнаружению синтетического контента, но и в целом на отсутствие на рынке известных и популярных продуктов, которые могли бы обеспечить защиту пользователя от недобросовестного использования ИИ. Необходимо отметить, что об опасности дип- фейков эксперты предупреждали достаточно давно. Приведу мнение директора по развитию бизнеса фирмы Iris Devices Александра Горшко- ва: "Оценивать влияние DeepFake-технологий на нашу жизнь мы начали еще в 2019 г. К сожале- нию, в то время мало кто этим заинтересовался. Возможно потому, что алгоритмы были еще не совершенны, а оборудование не оптимизиро- вано для решения таких задач. При этом теле- видение, еще не понимая всей важности техно- логии DeepFake, уже проявило к этому интерес. На тот момент ко мне обращались за интервью журналисты таких телекомпаний, как НТВ (2020 г.) и "Москва24" (2021 г.). Надо при- знаться, что в этих технологиях мы больше видели положительные моменты: синхронный перевод фильмов на несколько языков, упро- щенное создание сложного видеоконтента, генерация обучающих роликов и т.д. В то же время мы предсказывали и большие риски, а именно создание компромата, дезинформа- цию, целенаправленное влияние на психологи- ческое состояние общества, общественное мне- ние и принятие решений, другие риски, вплоть до развязывания региональных и глобальных войн. Все это можно проследить по материа- лам, размещенным на сайте DEEP FAKE CHAL- LENGE (https://deepfakechallenge.com/ ). Массо- вое использование технологий DeepFake может быть использовано для обмана сотрудников корпораций и частных лиц, увода людей от реальной жизни в несуществующий, выдуман- ный мир. Сейчас опасность этой технологии стала понятна многим. Надеюсь, что решение для противодействия использованию DeepFake в деструктивных целях скоро будет найдено". Завершая данную статью, хочу отметить, что для решения этических проблем дип- фейков в обществе должно быть налажено спокойное и квалифицированное их обсуж- дение. Список источников 1. Парфун А. За гранью реальности: изучение этических последствий дипфейков [Электрон- ный ресурс]. 14.09.2023. URL: https://www.sostav.ru/blogs/263188/40581 (дата обращения: 06.05.2025). 2. Территория биометрии [Электронный ресурс]. 27.04.2025. URL: https://t.me/allbio- metrics/2740 (дата обращения: 06.05.2025). 3. Михалков увидел "страшную опасность" в дип- фейках [Электронный ресурс]. 19.04.2024 URL: https://www.rbc.ru/technology_and_media/19/ 04/2024/6622a2399a79478b390f5744 (дата обращения: 06.05.2025). 4. Яковлева Е. Патриарх Кирилл призвал законодательно урегулировать ситуацию с дипфейками // Российская газета [Элек- тронный ресурс]. 30.01.2025. URL: https://rg.ru/2025/01/30/patriarh-kirill-pri- zval-zakonodatelno-uregulirovat-situaciiu-s- dipfejkami.html (дата обращения 06.05.2025). 5. Васильева Н. Патриарх Кирилл: Дипфейки создают угрозу национальной безопасности // Парламентская газета [Электронный ресурс]. 30.01.2025. URL: https://www.pnp.ru/politics/ patriarkh-kirill-dipfeyki-sozdayut-ugrozu-nacional- noy-bezopasnosti.html (дата обращения 06.05.2025). 6. Никита. Этические вопросы технологий ИИ [Электронный ресурс]. 08.12.2022. URL: https://author.today/reader/237675/2139019 (дата обращения 06.05.2025). 7. Как технологии дипфейков меняют наше представление о сексуальных фантазиях и морали [Электронный ресурс]. 25.06.2023. URL: https://www.securitylab.ru/news/539285.php (дата обращения 06.05.2025). 8. Первое в России "Нейрокладбище" с цифро- выми аватарами умерших запустят в Москве в 2024 году [Электронный ресурс]. 04.06.2024. URL: https://www.cnews.ru/news/line/2024- 06-04_pervoe_v_rossii_nejrokladbishche (дата обращения 06.05.2025). 9. Добробаба М. Б. Дипфейки как угроза пра- вам человека // Lex russica. – 2022. Т. 75. – № 11. – С. 112–119. – DOI: 10.17803/1729- 5920.2022.192.11.112-119. 10. Дипфейки: риски и возможности для биз- неса // ФРИИ Минцифры России [Электронный ресурс]. 2024. URL: dipfejki-riski-i-vozmozhnosti- dlya-biznesa1.pdf (дата обращения 06.05.2025). n Иллюстрация предоставлена автором. апрель – май 2025 www.secuteck.ru БИОМЕТРИЧЕСКИЕ СИСТЕМЫ  С И С Т Е М Ы К О Н Т Р О Л Я И У П Р А В Л Е Н И Я Д О С Т У П О М 78 Продукт Разработчик, страна Приме- нение Описание способа Microsoft (Azure) Sentinel Microsoft, США B2C Сбор данных облачного хранилища (о пользователе, устройстве, приложениях); выявление и аналитика угроз с помощью технологий ИИ, оперативное реагирование на инциденты с помощью встроенных средств координации и автоматизации стандартных задач CFake-atcher Intel, США B2B Технология различения в режиме реального времени "реального" человека на видео от подделки (дипфейка). С помощью ряда датчиков она отслеживает изменение цвета лицевых вен под кожей участника видео, создавая пространственно-временные карты. Затем алгоритмы машинного обучения по этим картам определяют, настоящий ли человек в кадре Sensity AI Sensity.ai, Нидерланды B2B Технология выявления дипфейков с помощью применения ИИ. Компания обещает обеспечить безопасное использование браузера для организаций и обучить их сотрудников распознавать дипфейки Deepware Scanner Zemana, Турция B2C Технология обнаружения манипуляций с лицом, сгенерированных ИИ, в рамках видео (максимум 10 мин.), выложенного на YouTube, Facebook или Twitter Таблица. Примеры продуктов, предназначенных для борьбы с дипфейками Ваше мнение и вопросы по статье направляйте на ss @groteck.ru

RkJQdWJsaXNoZXIy Mzk4NzYw