Журнал "Системы Безопасности" № 3‘2025
Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , И И , И Н Т Е Р Н Е Т В Е Щ Е Й 126 В то же время ценные данные могут быть сфор- мированы с помощью интеллектуального ана- лиза больших данных, что обеспечивает более эффективные выборки данных для глубокого обучения. Технология анализа больших данных может значительно снизить затраты на рабочую силу, повысить эффективность и даже сделать воз- можным решение некоторых задач, которые нельзя выполнить вручную в некоторых аспек- тах. Это, например, поиск по лицу, базе данных персонала, базе данных идентификационных карт, дублирующий поиск персонала с помо- щью семантического описания из видео для поиска транспортного средства определенного цвета, поиска номерного знака, поиска изобра- жений, ассоциации видео и других приложе- ний. Искусственный интеллект в области безопасности ИИ в безопасности позволяет автоматизировать многие рутинные задачи, связанные с монито- рингом и анализом данных. Это значительно ускоряет выявление угроз и позволяет опера- тивно реагировать на них. Например, ИИ может анализировать огромные объемы данных в реальном времени, выявляя аномалии и подозрительную активность. Это особенно важно для обнаружения сложных и многоэтап- ных атак, которые могут быть не видны при использовании традиционной аналитики. Применение ИИ в обеспечении безопасности актуально и для автоматического анализа фай- лов и программ на предмет наличия вредонос- ного кода. В отличие от традиционных антиви- русных программ системы на базе ИИ анализи- руют поведение программ в песочнице, выявляя вредоносное ПО на основе его дей- ствий. Такие решения не только обнаруживают уязвимости, но и предоставляют рекомендации по их устранению или даже автоматически при- меняют патчи и обновления. Однако важно учи- тывать, что такие системы требуют тщательной настройки и регулярного обновления данных для обучения, чтобы поддерживать высокий уровень безопасности и минимизировать риски ложных срабатываний и неверного принятия решений. ИИ может выполнять контекстный анализ и кор- реляцию событий – это позволяет более точно определять, является ли конкретное действие частью кибератаки. Такие системы анализируют множество факторов, включая временные метки, источники данных и типы активности, что помогает выявить сложные атаки, состоя- щие из множества этапов. Традиционные системы обнаружения угроз часто генерируют большое количество ложных срабатываний, что усложняет работу ИТ-спе- циалистов. ИИ помогает снизить количество ложных срабатываний, анализируя данные с учетом контекста и поведения системы. Мониторинг, поиск угроз, реагирование на инциденты и другие обязанности часто выпол- няются вручную и отнимают много времени, что может задержать действия по исправлению, увеличить незащищенность и повысить уязви- мость для киберпреступников. И только за последние несколько лет разработки ИИ быстро развились до такой степени, что они могут при- нести существенные преимущества в операциях киберзащиты для широкого диапазона органи- заций и структур. Автоматизированные ключе- вые элементы основных функций ИИ помогли преобразовать рабочие процессы в кибербезо- пасности в оптимизированные, автономные, непрерывные процессы, которые ускоряют вос- становление и обеспечивают максимальную защиту. Риски, связанные с использованием ИИ Развитие любой технологии связано не только с большими возможностями, но и с реальными угрозами. ИИ не является исключением. Поэто- му службы безопасности любой серьезной ком- пании должны ясно представлять, какой ущерб может быть от внедрения ИИ в целом. Для орга- низаций и бизнеса это, например, потеря или прямое хищение денег; дискредитация работ- ников; нарушение штатного режима работы автоматизированной системы управления (управляемого объекта, процесса); срыв запла- нированной сделки с партнером и потеря кли- ентов и поставщиков; необходимость дополни- тельных затрат на восстановление деятельности и т.д. Важно знать, что основное преимущество ИИ в кибербезопасности – это способность прогно- зировать атаки и наращивать защиту до того, как они начнутся. ИИ помогает сразу полностью видеть все сетевые инфраструктуры организа- ции и анализировать уязвимые точки для обна- ружения. Для безопасности применяются тра- диционные для ИИ области – распознавание голоса и лиц, автопилоты и др. Несмотря на высокую точность, ИИ-системы не застрахованы от ошибок. Они могут неправиль- но интерпретировать данные или события, что приводит к ложным оповещениям о потенци- альных угрозах. Например, алгоритм машинно- го обучения может неверно классифицировать нормальную активность как подозрительную, и это влечет излишнее использование ресурсов при ложных срабатываниях, поэтому требуются постоянный контроль и настройка систем ИИ для минимизации подобных рисков. ИИ-системы также подвержены атакам. Одной из таких угроз являются генеративные атаки (adversarial attacks), когда злоумышленники вводят специально созданные данные, чтобы обмануть модель. Например, добавив незначи- тельные изменения в изображение или данные, можно заставить модель неправильно класси- фицировать угрозу. Еще одним важным риском является чрезмер- ное доверие к ИИ. Автоматизированные систе- мы могут быть полезны, но они не заменяют человеческий контроль. Полная зависимость от ИИ может привести к катастрофическим последствиям, если система даст сбой или будет обманута. Например, ошибка в алгоритме может остано- вить всю инфраструктуру безопасности компа- нии или позволить злоумышленникам получить доступ, пока люди уверены, что "ИИ всё конт- ролирует". Злоумышленники быстро адаптируются к новым технологиям и находят способы использовать ИИ против его создателей. Пони- мание этих угроз помогает минимизировать возможные проблемы и сделать использование ИИ более безопасным. Этические и правовые вопросы Одна из главных проблем в использовании ИИ – это "эффект черного ящика", когда алго- ритмы принимают решения, но их логика оста- ется скрытой даже для разработчиков. Если спе- циалисты не понимают, почему ИИ классифи- цирует определенное действие как угрозу, это не только усложняет верификацию и исправле- ние ошибок, но и подрывает доверие к системе. Отсутствие прозрачности может также вызвать правовые споры, особенно если решения ИИ повлекли за собой финансовые убытки или скомпрометировали данные. Когда ИИ принимает неверное решение, последствия могут быть катастрофическими. Например, пропуск реальной угрозы может привести к утечке данных, а ложное срабатыва- ние – к блокировке легитимных действий. Одним из ключевых правовых аспектов исполь- зования ИИ является защита персональных дан- ных. Законодательство многих стран требует обеспечения конфиденциальности и безопас- ности личных данных при их обработке. В Рос- сии это регулируется Федеральным законом № 152-ФЗ "О персональных данных", который устанавливает строгие требования к обработке персональных данных, включая меры по защите информации от несанкционированного досту- па, утечек и других угроз. Важным правовым требованием является полу- чение согласия на обработку персональных данных. Пользователи должны быть осведом- лены о том, какие данные собираются и как они будут использоваться. Организации должны предоставлять пользователям ясную и полную информацию о целях сбора данных, методах обработки и мерах защиты, а также правах пользователей на доступ, исправление и удале- ние их данных. Компании должны уважать право пользовате- лей на неприкосновенность частной жизни и использовать данные только в тех целях, для которых они были собраны. Принцип миними- зации данных требует сбора только необходи- мой для выполнения конкретных задач инфор- мации. В настоящее время ИИ считается инструментом, созданным человеком, а не самостоятельным субъектом, который мог бы нести юридическую ответственность за свои действия. Если ИИ совершает ошибку или наносит вред, ответ- ственность лежит на тех, кто создал, использует или управляет этой системой (разработчики, компании, пользователи). Пока не определено, как именно должна быть отражена ответственность за ошибки и вред, причиненный ИИ. Рассматривается несколько моделей: ответственность разработчиков и ком- паний, создателей и пользователей ИИ. Воз- можно, возникла потребность введения особой категории "технологическая ответственность". Например, если автономное транспортное средство совершает аварию, кто должен отве- чать – владелец, разработчик программного обеспечения или производитель автомобиля? июнь – июль 2025 www.secuteck.ru
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzk4NzYw