Журнал "Системы Безопасности" № 6‘2024

дует внимательно относиться к просьбам отдать свои кровные и есть время подумать, то для политических дипфейков главное – обнародо- вать дипфейк всего один раз. Достаточно одно- го видеофайла с компрометирующим материа- лом, и карьера политика может рухнуть. Даже если удастся доказать, что это дипфейк, то, как говорится в известном анекдоте, "осадочек-то остался". Мошенники опубликовали фейковый видеоро- лик на YouTube, выдав его за официальное выступление миллиардера Илона Маска на кон- ференции Bitcoin-2024, где он обещает бес- платную раздачу разных криптовалют. В фейко- вом ролике от пользователей требуется отпра- вить на указанный адрес любую сумму. Афери- стам удалось собрать с доверчивых пользова- телей финансовых активов сумму в 28 586 дол- ларов. В конце января 2024 г., за несколько дней до праймериз (предварительного голосования) в Нью-Гемпшире, тысячам местных демокра- тов поступили звонки, в которых их убеждали не ходить на мероприятие. "Голосование в этот вторник лишь поможет республиканцам в их стремлении снова выбрать Дональда Трампа. Ваш голос будет иметь значение в ноябре (когда в США пройдут президентские выбо- ры), а не в этот вторник", – слышали они по телефону знакомый голос президента США Джозефа Байдена. Звонку поверили многие: на телефонах отображался номер одного из известных членов Демократической партии из Нью-Гемпшира. Звонил, однако, конечно, не президент США. Эксперты из компании Pindrop, специализирующейся на кибербезо- пасности, пришли к выводу, что имитация голоса президента США была сделана с помо- щью ИИ. В офисе генерального прокурора штата звонки назвали незаконной попыткой воспрепятствовать голосованию и начали рас- следование. В социальных сетях распространяется фейковое видео с отрывком из интервью министра ино- странных дел России С.В. Лаврова, авторами которого при помощи нейросетей наложен абсолютно не соответствующий действительно- сти текст [6]. При этом в качестве основы было использовано подлинное видео с интервью С.В. Лаврова для документального фильма, посвященного 25-летию агрессии НАТО против Югославии (24 марта 2024 г.), опубликованное на цифровых ресурсах министерства. Украинские спецслужбы [7] при содействии западных кураторов продолжают активно использовать дипфейки и другие технологии на базе искусственного интеллекта для распро- странения ложной информации о ситуации в приграничных регионах нашей страны. Обратили внимание на очередную грубую под- делку: в сеть "Интернет" была вброшена видео- запись, на которой официальный представи- тель МИД России М.В. Захарова якобы заявляет о том, что "российская сторона готова рассмат- ривать передачу Запорожской АЭС под конт- роль представителей Киева взамен на добро- вольный выход ВСУ из Курского региона". Это "обращение" – дипфейк, склеенный на скорую руку на основе видеозаписи брифинга М.В. Захаровой от 18 июля 2024 г. (рис. 1). Одной из серьезных проблем выборов в Индии названы дипфейки, которые широко исполь- зуются в предвыборных кампаниях кандидатов. Эксперты считают, что подобный тренд мы будем наблюдать в ближайшее время на всех выборах, если страны не примут соответствую- щие законы. Опасность дипфейков будет возрастать В прошлом году McAfee проводила опрос 7 тыс. человек, и оказалось, что каждый четвертый сталкивался или знает того, кто сталкивался с использованием голосовых дипфейков. Дипфейки, как оказалось, доставляют немало хлопот. 72% опрошенных ежедневно беспо- коятся о возможности мошенничества с исполь- зованием дипфейков, которое может привести к краже их денег или личной информации. 45% компаний обеспокоены способностью генеративного искусственного интеллекта соз- давать более сложные синтетические личности. Ожидается [8], что рынок дипфейк-технологии на базе ИИ значительно расширится, увеличив- шись с 564 млн долларов в 2024 г. до суще- ственной суммы в 5,13 млрд долларов к 2030 г. (рис. 2). По мнению зампреда правления Сбербанка Станислава Кузнецова, в следующем году среди новых трендов кибермошенничества стоит ожи- дать распространения использования фальши- вых изображений и голоса (дипфейков) и "удара по человеку". Использование преступ- ным миром дипфейков будет происходить по многим разным каналам. Сохранится тренд на то, чтобы наносить ущерб отраслям экономики, организациям, структурным направлениям... "Ну и последний тренд, как мне кажется, это будет "удар по человеку", удар, рассчитанный на получение доверия у человека", – сказал он. Бороться с помощью законодательства В России законодатели активно обсуждают необходимость ужесточения законов об использовании дипфейков. В Госдуму [9] внесли проект поправок к Уголов- ному кодексу РФ, касающийся ответственности за использование технологии подмены голоса или внешности, то есть дипфейков, в преступ- ных целях. Проект делает применение технологии дипфей- ков "отягчающим обстоятельством" по уже закрепленным в законе преступлениям. Соглас- но пояснительной записке, технология может приравниваться к незаконному использованию биометрических персональных данных. Приме- ры включают подделку фотографий для распро- странения клеветы, а также использование ней- росетей и искусственного интеллекта для созда- ния подделок, которые почти невозможно отли- чить от реальных изображений. Предлагается наказание за использование дип- фейков для клеветы в виде штрафа до 1,5 млн руб., ареста на срок до трех месяцев или лише- ния свободы на срок до двух лет. За примене- ние подмены голоса или изображения для хищения средств и мошенничества предлагает- ся наказание в виде штрафа до 400 тыс. руб. или лишения свободы на срок до шести лет. Проект [10] в настоящее время находится на рас- смотрении в ответственном комитете Государст- венной Думы по государственному строительству и законодательству, получено заключение Право- вого управления. В заключении по проекту феде- рального закона перечислены основные статьи УК РФ, которые могут быть использованы для квали- фикации правонарушения с использованием дип- фейков: ст. 1281 "Клевета", ст. 158 "Кража", ст. 159 "Мошенничество", ст. 1596 "Мошенничество в сфере компьютерной информации", ст. 163 "Вымогательство", ст. 165 "Причинение имуще- ственного ущерба путем обмана или злоупотреб- ления доверием". Сроки представления проекта в Совет Государственной Думы пока не определены. В таком же состоянии проект закона "О внесе- нии изменений в часть первую Гражданского кодекса Российской Федерации (об охране голоса)" [11]. декабрь 2024 – январь 2025 www.secuteck.ru БИОМЕТРИЧЕСКИЕ СИСТЕМЫ  С И С Т Е М Ы К О Н Т Р О Л Я И У П Р А В Л Е Н И Я Д О С Т У П О М 82 Рис. 1. Дипфейк с официальным представителем МИД России Марией Захаровой Рис. 2. Прогноз рынка дипфейк-технологий на базе искусственного интеллекта

RkJQdWJsaXNoZXIy Mzk4NzYw