Журнал "Системы Безопасности" № 6‘2024
О дно из первых сообщений о дипфейках на канале "Территория биометрии" было про пользователя, сгенерировавшего в Stable Diffu- sion невероятно реалистичную девушку, которая держит в руках лист с надписями и поддельные права. Дальше сообщения о дипфейках покати- лись как снежный ком. Есть одна особенность, и это важно, – с момента первой публикации прошло менее года! И к настоящему времени, к сожалению, коли- чество сообщений о противоправных действиях не уменьшается. На проводе "мэр" и другие 75-летний Евгений получил звонок от человека, представившегося секретарем мэра. Тот уверил мужчину, что с ним хочет пообщаться сам Сер- гей Семенович Собянин. "Мэр" на видеосвязи выглядел очень похожим на настоящего Собя- нина и сообщил о хищении денег из федераль- ного бюджета через счет пенсионера. Затем Евгению позвонил "генерал-полковник", кото- рый предъявлял требования. Жертва повелась и все сделала, как ей сказали. Так мошенники получили почти 1,5 млн руб. Заслуженного врача РФ развели на 4 млн руб. с помощью дипфейка Сергея Семеновича Собя- нина. 82-летнему человеку позвонили якобы из мэрии и сказали, что с ним хочет поговорить глава города. Мужчине набрали по видеосвязи и благодаря дипфейку внушили, что человек виновен в донатах украинской армии. Под пси- хологическим прессингом врач снял 4 млн руб. наличкой и передал их курьеру. Преподавательница после звонка от фейкового мэра Москвы отдала мошенникам 2 млн руб. Мошенники, используя дипфейк Сергея Семе- новича Собянина, звонят местным руководите- лям театров и говорят, что ими бессовестно раз- ворован городской бюджет. В Санкт-Петербурге тоже не все гладко. Веду- щий агроном Ботанического сада рассказал, как ему позвонил губернатор Санкт-Петербур- га. Изображение было вполне достоверно, Александр Беглов сидел на фоне российского флага, жестикулировал. Попросил помочь поймать злоумышленников. Убедив гражда- нина, псевдогубернатор переключил жертву на псевдозаместителя министра внутренних дел, и на экране телефона появился Алек- сандр Горовой. Далее все развивалось по рас- пространенному сценарию. Держа на посто- янном контроле ученого, мошенники не про- сто заставили его снять со счета деньги, но и переписать номера купюр. В одном из регионов жертвой мошенников стал высокопоставленный чиновник, который пове- рил, что ему звонит губернатор, и перевел на "безопасный счет" несколько миллионов рублей. Как воруют голоса В России [3] растет количество объявлений, которые предлагают за деньги озвучивать рек- ламу и фильмы. Многие из таких предложений публикуются мошенниками, при этом сами по себе такие объявления не нарушают закон, но записи голоса злоумышленники используют для обучения нейросетей и генерируют на их осно- ве аудиосообщения, с помощью которых вымо- гают деньги у друзей и родственников жертвы. На имя председателя правления РОЦИТ (Регио- нальный общественный центр интернет-техно- логий) Антона Горелкина поступило обращение профессиональной актрисы дубляжа. Она рас- сказала, что в 2019 г. заключила договор с крупным российским банком по озвучиванию текста для голосового помощника. В 2023 г. она узнала, что ее голос использовался на различ- ных сайтах в Интернете, где распространяются материалы порнографического характера, имеются рекламные записи с ее голосом с при- зывами к действиям сексуального характера. В настоящее время идут судебные разбиратель- ства в Савеловском районном суде Москвы [2]. Актриса попросила РОЦИТ дать правовую оцен- ку данной ситуации и оказать содействие в вос- становлении нарушенных прав. В США разгорелся скандал из-за голоса Sky, которым разговаривает голосовой помощник в новой версии чат-бота ChatGPT 4.0. Актриса Скарлетт Йоханссон утверждает, что этот голос неотличим от ее собственного, что подтвер- ждают родственники, друзья и многочисленные фанаты актрисы. Угрозы для судов, банков, работодателей… Самой популярной схемой обмана пользовате- лей в период распродаж становится подделка популярных сайтов, интернет-магазинов и мар- кетплейсов. Злоумышленники создают фейко- вые аккаунты известных брендов или самих торговых площадок в соцсетях и мессенджерах и делают рассылку от их лица. Они пользуются тем, что крупные ритейлеры делают большие скидки в этот период, поэтому подобные пред- ложения могут не вызывать настороженности. "В последнее время благодаря технологиям искусственного интеллекта (ИИ) распростране- ние получила схема с дипфейками. Мошенники взламывают как обычных пользователей, так и популярные Telegram-каналы и отправляют вредоносные ссылки: в первом случае контактам от имени взломанного пользователям, во вто- ром – от имени владельца (канала. – Ред.) с призывом покупать некие товары. Свои сообщения мошенники сопровождают дипфейк- видео и аудио, которые должны убедить поль- зователей в их легитимности", – говорит началь- ник отдела по кибербезопасности компании "Код безопасности" Алексей Коробченко [4]. По данным полиции Гонконга [5], сотрудницу финансовой службы международной компа- нии обманом заставили выплатить 25 млн долларов мошенникам, которые с помощью технологии "дипфейк" выдавали себя за финансового директора компании во время видеоконференции. Пользователь соцсети, опытный разработчик, использовал технологию дипфейков, чтобы помочь другу устроиться на работу, заменив свое лицо на лицо друга во время видеособе- седования. Для подготовки к интервью исполь- зовалась программа, обученная на датасете из 10 тыс. фото друга. После того как на первом собеседовании ребят раскусили из-за сбоя син- хронизации дипфейка, они обучили модель заново в течение недели, и на втором собесе- довании все прошло успешно: другу предложи- ли работу с зарплатой 4 тыс. долларов в месяц. Постепенно дипфейки стали угрозой даже для судов, страховых компаний, исследовательских институтов, в которых подлинность доказа- тельств и источников особенно важна. Недобросовестные компании теперь могут отказать в удовлетворении законных претензий, ссылаясь на то, что представленные данные фейк. Так у реального пользователя заблокиро- вали деньги, объявив, что он дипфейк. С помощью искусственного интеллекта можно создавать дипфейки на медицинскую темати- ку, например статистические данные пациентов, медицинские снимки (КТ, МРТ, рентгеновские изображения), видео с врачами, научные пуб- ликации и исследования. Это несет серьезные риски, если использовать дипфейки со злым умыслом. Дипфейки в политике Примеров использования дипфейков в махина- циях много, но если отдельным гражданам сле- www.secuteck.ru декабрь 2024 – январь 2025 БИОМЕТРИЧЕСКИЕ СИСТЕМЫ С И С Т Е М Ы К О Н Т Р О Л Я И У П Р А В Л Е Н И Я Д О С Т У П О М 81 Василий Мамаев Заместитель директора Некоммерческого партнерства "Русское биометрическое общество" Дипфейки. Ужасы искусственного интеллекта Слово дипфейк (от англ. Deepfake) объединяет в себе два понятия: deep learning – глубокое обучение и fake – подделка. По определению, приведенному в [1], дип- фейк – это "поддельное видео, созданное с использованием глубоких нейронных сетей". В этой статье мы обобщим информацию о данном виде мошенничества, кото- рая регулярно публикуется на телеграм-канале "Территория биометрии" (https://t.me/allbiometric s).
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzk4NzYw