Журнал "Системы Безопасности" № 2‘2025

Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , И И , И Н Т Е Р Н Е Т В Е Щ Е Й 125 угроз. Однако этот метод не способен выявлять новые угрозы, так как он работает только с уже известными образцами. Машинное обучение, напротив, анализирует большие объемы дан- ных и выявляет аномалии, указывающие на потенциальные атаки, даже если они ранее не встречались. Нейронные сети делают этот про- цесс еще более точным, распознавая сложные угрозы и адаптируясь к их изменениям. В соче- тании эти методы значительно повышают уро- вень безопасности, но окончательное решение и интерпретация данных все равно остаются за человеком. Системы обеспечения информационной безопасности Помимо поведенческого и сигнатурного анали- за, в информационной безопасности приме- няются и другие подходы, которые помогают более глубоко понять и предотвратить угрозы. Сетевой анализ включает мониторинг и анализ трафика в сети для обнаружения аномалий, атак и несанкционированного доступа. Исполь- зуется для выявления DDoS-атак, сканирования портов и попыток проникновения. При анализе уязвимостей проводится выявле- ние слабых мест в программном обеспечении и инфраструктуре. Оно включает тестирование на проникновение, сканирование уязвимостей и оценку рисков. Анализ журналов (логов) включает в себя сбор, корреляцию и анализ логов с различных систем и приложений для выявления подозрительной активности и расследования инцидентов. Плат- формы SIEM (Security Information and Event Management) автоматизируют этот процесс и позволяют в реальном времени идентифици- ровать подозрительную активность. Анализ логов проводится при аудите ИТ-систем. Форензический анализ (Digital Forensics) используется для расследования и восстановле- ния после инцидентов. Включает сбор, анализ и отчетность о цифровых доказательствах, таких как временные метки файлов и логи действий пользователей, и их анализ. Цель состоит в том, чтобы понять, как была осуществлена атака, какие методы использовались для проникнове- ния в систему и какие данные могли быть ском- прометированы. На основе этого анализа выра- батываются рекомендации по усилению защиты ИТ-систем. Анализ вредоносного ПО проводится для изуче- ния поведения и характеристик вредоносных программ. Может включать статический и дина- мический анализ для понимания механизмов их работы. Статический метод опирается на функции и структуры кода без его выполнения, тогда как динамический анализирует поведе- ние кода в изолированной среде. Современные технологии также внедряют подходы машинно- го обучения для автоматической идентифика- ции ранее неизвестных разновидностей вредо- носного ПО и их уникальных паттернов. Антропогенный анализ изучает человеческий фактор и ошибки, которые могут привести к инцидентам безопасности, включая неосто- рожность или несанкционированные действия сотрудников. Этот тип анализа тесно связан с обучением персонала основам информацион- ной безопасности. Управление инцидентами безопасности (Inci- dent Response Analysis) включает процедуры и процессы для минимизации потерь от инци- дентов и быстрого восстановления нормальной работы системы. Этот подход включает в себя не только технические меры по восстановлению инфраструктуры, такие как резервное копиро- вание и восстановление данных, но и тщатель- но проработанные процедуры коммуникации, чтобы снизить негативное воздействие на биз- нес-процессы компании. Анализ угроз (Threat Intelligence) – это сбор и анализ информации об актуальных угрозах и векторах атак, чтобы предсказать и пред- отвратить потенциальные инциденты. Включает в себя мониторинг активности в даркнете, ана- лиз вредоносных IP-адресов, вредоносных доменов и последних эксплойтов, что повыша- ет стратегическую проницательность безопас- ности и способствует принятию обоснованных решений. Эти инструменты дополняют друг друга и фор- мируют комплексную систему защиты. Однако полное исключение человеческого участия невозможно, поскольку интерпретация дан- ных и принятие критических решений все еще требуют человеческого интеллекта и интуи- ции. Комбинация автоматизированных техно- логий и человеческого вмешательства позво- ляет существенно повысить уровень безопас- ности и минимизировать риски, связанные с кибератаками. Этические аспекты использования ИИ в информационной безопасности При разработке искусственного интеллекта ключевой задачей является установление пре- делов ответственности таких систем. Сегодня российское законодательство не признает ИИ субъектом права и не предусматривает его ответственности за возможные инциденты. Раз- работчики контролируют алгоритмы, но резуль- таты их применения могут быть непредсказуе- мыми. Итог работы алгоритмов существенно зависит от исходных данных, и разработчики не всегда могут гарантировать их точность. Важно обеспечить прозрачность процесса при- нятия решений искусственным интеллектом, чтобы можно было отслеживать его действия и своевременно выявлять проблемы в его рабо- те. Анализ метаданных может повысить каче- ство функционирования ИИ, но при этом вызы- вает вопросы о защите персональных данных. Таким образом, при создании ИИ-систем необходимо обеспечить надежное хранение данных и их защиту от кражи или неправомер- ного использования. Несмотря на все актуальные вызовы и риски, ИИ остается одной из самых перспективных тех- нологий, способных расширить наши возмож- ности и упростить повседневную жизнь. Важно помнить, что это всего лишь инструмент и он требует осторожного и этичного использования. Будущее искусственного интеллекта в ИБ В перспективе искусственный интеллект будет играть ключевую роль в сфере информацион- ной безопасности (ИБ), превратившись из про- сто инструмента в фундаментальный элемент системы. Оснащенный способностью к анализу больших данных, ИИ будет обеспечивать глу- бокую персонализацию и адаптацию к специ- фическим задачам и угрозам. Искусственный интеллект сможет не только мгновенно анализировать и реагировать на угрозы, но и приспосабливаться к изменяю- щимся приемам злоумышленников. ИИ будет обеспечивать круглосуточную защиту информа- ционных систем на недостижимом для человека уровне. Тем не менее с появлением новых возможно- стей возникают и новые риски. Противостоя- ние между ИБ-специалистами и злоумышлен- никами будет усиливаться. Мошенники будут использовать ИИ для обхода защитных мер, что приведет к постоянной гонке в цифровом мире. В этих условиях время на принятие решений у человека значительно сократится и эффективное реагирование без поддержки искусственного интеллекта станет невозмож- ным. Стоит учитывать, что с увеличением зависимо- сти от искусственного интеллекта в области ИБ возрастет и потенциальная угроза от его ком- прометации. Это подчеркивает важность разра- ботки надежных, безопасных и самообучаю- щихся ИИ-систем, способных противостоять попыткам манипуляции. n www.secuteck.ru апрель – май 2025 Ваше мнение и вопросы по статье направляйте на ss @groteck.ru М ашинное обучение, анализирует большие объемы данных и выявляет аномалии, указывающие на потенциальные атаки, даже если они ранее не встречались. Нейронные сети делают этот процесс еще более точным, распознавая сложные угрозы и адаптируясь к их изменениям. С егодня российское законодательство не признает ИИ субъектом права и не предусматривает его ответственности за возможные инци- денты. Разработчики контролируют алгоритмы, но результаты их при- менения могут быть непредсказуемыми. Итог работы алгоритмов суще- ственно зависит от исходных данных, и разработчики не всегда могут гарантировать их точность.

RkJQdWJsaXNoZXIy Mzk4NzYw