Журнал "Information Security/ Информационная безопасность" #1, 2026

Вспомним, что роботизация началась с передачи машинам однообразных операций, ранее выполнявшихся чело- веком у станка. Роботы действовали по заданной программе, воспроизводя описанную последовательность дей- ствий. Когда станки объединились в сборочные линии, управление ими сосредоточилось в вычислительных системах, которые постепенно стали использоваться не только для про- изводственных операций, но и для обработки информации и управления бизнес-процессами. Следующим этапом стало появление нейросетей. В отличие от традицион- ного программирования, здесь алго- ритм не задается напрямую – систему обучают на примерах. Такой подход напоминает обучение человека и поро- дил представление о новом эволю- ционном скачке – появлении искус- ственного интеллекта, способного к самостоятельному развитию. Однако этот этап принципиально отличается от предыдущих. Замене человека стан- ком с числовым программным управ- лением предшествовала длительная подготовительная работа: действия рабочего изучались, описывались и оптимизировались, после чего пере- водились в программный код. То же происходило и при автоматиза- ции бизнес-процессов. Сначала деятель- ность организаций формализовывалась в виде регламентов и инструкций, и лишь затем могла быть реализована в инфор- мационных системах. Иными словами, каждому технологическому скачку пред- шествует этап формализации. Без него программная система неизбежно содер- жит пробелы: человек способен дей- ствовать по ситуации, компьютер – толь- ко по заданному алгоритму. Возможности ИИ ограничены ИИ можно рассматривать как алго- ритм обработки входных данных – жестко запрограммированный или реа- лизованный в виде нейросети, пара- метры которой формируются в процес- се обучения на размеченных данных. Даже при использовании современных методов обучения критерии правиль- ности результата задаются человеком. Нейросеть не формулирует цель обуче- ния самостоятельно, а лишь оптимизи- рует параметры в рамках поставленной задачи. Поэтому представление о том, что ИИ развивается по аналогии с человеческим мышлением, во многом является некорректной аналогией. При этом нейросети способны пре- восходить человека в тех задачах, кото- рым они обучены. ИИ уже используется в ряде задач, связанных с поиском уязвимостей. Алгоритмы машинного обучения применяются в анализе исход- ного кода, автоматическом fuzz-тести- ровании и построении графов атак. В некоторых случаях такие системы действительно способны обнаруживать типовые ошибки быстрее человека, особенно если речь идет о массовом анализе программных компонентов. Однако их эффективность по-прежнему ограничена рамками обучающих дан- ных и архитектуры модели. Когда появляется новая схема атаки или нестандартная комбинация уязвимо- стей, автоматические инструменты нередко оказываются менее результа- тивными, чем специалист, способный выдвигать гипотезы и проверять их экспериментально. Поэтому сегодня ИИ в тестировании на проникновение чаще выступает не как самостоятель- ный пентестер, а как инструмент, уско- ряющий отдельные этапы анализа. Парадоксально, но именно инциденты по причине невыявленных новых уязви- мостей становятся источником разви- тия нейросетей. Информация по резуль- татам расследования создает обратную связь, необходимую для дообучения моделей. Пример таможни Посмотрим на близкий авторам при- мер таможенного контроля. Использо- вание ИИ для авторегистрации и авто- выпуска деклараций позволило сокра- тить количество досмотров и снизить трудозатраты на контроль товарных потоков. Однако такие системы эффек- тивно выявляют лишь те нарушения, признаки которых присутствовали в обучающих данных. Если злоумышлен- ники применяют новую схему контра- банды, нейросеть может ее не обнару- жить, а государство просто недополучит таможенные платежи. Возникает оче- видное ограничение: невозможно обучить систему выявлять то, чего спе- циалисты ранее не наблюдали. Одним из способов выявления новых схем может быть случайный досмотр части безрисковых партий. Однако и к таким механизмам злоумышленники способны адаптироваться. Дополнительную проблему создает так называемое отравление нейросети. Если данные, на которых она дообуча- ется, постепенно искажаются, модель 70 • ПРОФЕССИЯ Сможет ли ИИ думать как белый хакер? важаемые СМИ, в том числе иностранные, в начале 2026 г. сообщили о том, что искусственный интеллект научился выявлять уязвимости быстрее человека. Неужели специали- стов по тестированию на проникновение скоро заменит ИИ? У Виктор Минин, председатель правления АРСИБ, руководитель направления “Цифровой наставник” Всероссийского общественного движения наставников детей и молодежи Георгий Песчанских, д.э.н., к.ф.-м.н., профессор математики и ИТ, доцент кафедры специальных дисциплин Фото: АРСИБ Фото: Г. Песчанских

RkJQdWJsaXNoZXIy Mzk4NzYw