Журнал "Information Security/ Информационная безопасность" #5, 2025

логом проведения внутренней проверки и т.п. В отличие от традиционного фишинга, дипфейки практически невозможно обнаружить на слух или глаз в условиях стресса. Вторая угроза – теневой ИИ – несанк- ционированное использование сотруд- никами внешних, публичных генератив- ных ИИ-сервисов, например чат-ботов, для выполнения рабочих задач. Это одна из самых серьезных угроз утечки на сегодняшний день, поскольку конфи- денциальная информация вводится в сторонние облачные модели, которые могут использовать ее для обучения или каких-либо иных целей. Сотрудник, желая сэкономить время, вводит в публичный чат-бот: l черновик коммерческого предложе- ния с секретными ценами; l фрагмент исходного кода закрытого проекта; l обезличенные, но содержащие чув- ствительные данные, отчеты; l необезличенные файлы, содержащие коммерческую тайну или персональные данные и т.п. Эффективная защита от угроз, свя- занных с человеческим фактором, в эпоху генеративного искусственного интеллекта требует сочетания органи- зационных мер, технологических ограничений и управляемого применения ИИ-инструментов. Как известно, защитные меры должны быть масштабируемыми и зависеть от ресурсов. Можно выделить три уровня внедрения защитных мер, которые могут обеспечить необходимую защиту от дип- фейков и теневого ИИ. Начальный уровень. Малый бизнес Цель: предотвратить утечки данных, несанкционированное использование ИИ-сервисов и минимизировать риск атак через дипфейки. Основные меры: 1. Издать внутренний приказ о запрете использования любых, прежде всего зарубежных, публичных ИИ-сервисов (ChatGPT, Gemini, Claude, DeepSeek и т. д.) для обработки рабочих данных. Уста- новить ответственность за нарушение и назначить сотрудника, контролирую- щего соблюдение запрета. 2. Ввести обязательное правило двух каналов – любое срочное финансовое поручение или поручение связанное с предоставлением критичных данных (персональных данных, коммерческой тайны) должно быть подтверждено повторно по независимому каналу связи. Например, если распоряжение поступило по видео или телефону, то сотрудник обязан завершить разговор и перезвонить по известному внутрен- нему номеру. 3. Использовать возможности встроен- ных межсетевых экранов и бесплатных DNS-фильтров для блокировки доменов популярных LLM. 4. Утвердить краткую инструкцию об использовании ИИ в организации, где определено, что разрешено, а что нет. Средний уровень. Средний бизнес Цель: централизовать контроль над применением ИИ, исключить внедрение поддельных компонентов в цепочку поставок и повысить защищенность от дипфейков. Основные меры: 1. Систематизация ИИ-использования: l создать реестр разрешенных ИИ- инструментов; l ввести процедуру согласования новых сервисов (через форму заявки или утвер- ждение ИТ-/ИБ-специалистом); l ограничить доступ к неразрешенным сервисам через прокси-сервер или меж- сетевой экран. 2. Контроль утечек информации: l установить недорогие решения для обнаружения попыток передачи файлов, содержащих коммерческие данные; l блокировать отправку документов, содержащих ключевые слова вроде "ИНН", "коммерческая тайна", "дого- вор". 3. Безопасность цепочки поставок ИИ и ПО: l использовать только проверенные источники программ (официальные репо- зитории, цифровые подписи); l запрещать установку сторонних ботов и плагинов ИИ без проверки. 4.Проводить обучение и тестирование сотрудников – короткие тренинги по распознаванию дипфейков и фишинга, демонстрация примеров поддельных (фишинговых) писем, голосовых сообще- ний и видеозвонков. Продвинутый уровень. Крупный бизнес Цель: обеспечить управляемое, про- зрачное и безопасное использование ИИ, включая защиту от дипфейков, уте- чек и несанкционированных моделей. Основные меры: 1. Систематизация ИИ-использования: l утвердить политику корпоративного управления ИИ, где определены роли, ответственность, требования к хранению данных и согласованию использования моделей; l назначить ответственного за соот- ветствие (AI Compliance Officer 2 ) и про- водить ежегодные внутренние аудиты использования ИИ. 2. Безопасность цепочки поставок: l вести реестр моделей и компонен- тов ИИ, используемых в бизнес-про- цессах; l проверять источники и целостность библиотек и обученных моделей; l фиксировать версии и контролировать обновления, чтобы исключить внедрение вредоносных элементов. 3. Контроль и фильтрация генератив- ных данных: l использовать инструменты для защи- ты от утечек контекста при работе внут- ренних ИИ-агентов; l внедрить проверку входящих сообще- ний и медиафайлов на признаки дип- фейков (через ИИ-детекторы или циф- ровые водяные знаки). 4. Анализ поведения сотрудников: при- менять поведенческие системы (User and Entity Behavior Analytics) для выявле- ния аномалий (вход ночью, массовое копирование файлов, необычные дей- ствия в CRM). В эпоху генеративного ИИ челове- ческий фактор становится не просто слабым звеном, а зеркалом новых технологических угроз. ИИ усиливает недостатки, присущие человеку, – усталость, доверчивость, склонность к ошибкам. Ключ к успеху лежит в сбалансиро- ванной интеграции: не пытаться устра- нить человеческий фактор, а управлять им. Стратегии, рассмотренные в этой статье, направлены именно на достиже- ние такого баланса, где технологии не заменяют человека, а помогают ему действовать осознанно, быстро и без- опасно. Независимо от масштаба бизнеса – будь то малое предприятие, средняя компания или крупная корпорация – безопасность начинается с осознанного управления рисками и формирования внутренней культуры ответственного обращения с ИИ. Практическая устойчивость к ИИ-угро- зам достигается не масштабом инве- стиций, а зрелостью процессов: свое- временным контролем, обучением и постоянной проверкой эффективности принятых мер. l • 65 УПРАВЛЕНИЕ www.itsec.ru Ваше мнение и вопросы присылайте по адресу is@groteck.ru Рисунок: ГРОТЕК 2 https://www.securitycareers.help/compliance-officers-for-ai-regulations-navigating- the-complex-landscape-of-ai-governance/

RkJQdWJsaXNoZXIy Mzk4NzYw