Журнал "Системы Безопасности" № 1‘2026

Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , И И , И Н Т Е Р Н Е Т В Е Щ Е Й 118 С овременный информационный мир поро- дил проблему, о которой раньше не говори- ли и не задумывались. Почему необходимо задуматься об исключении деструктивности данных Долгое время в человеческом обществе внед- рялось доверие к информации, к ее правдиво- сти, актуальности и безопасности. Были случаи размещения в СМИ недостоверной или ложной информации, но они выявлялись и зачастую не имели долгосрочных последствий. Речь не идет о заведомо специальном создании ложной и недостоверной информации. Человеческая история знает и такое. Но все-таки это были выявляемые и фиксируемые случаи. Теперь же ситуация изменилась. Насыщение информацией, огромный рост источников дан- ных уже не позволяет просто отфильтровать лож- ную, недостоверную или мошенническую инфор- мацию. Зачастую сформированные данные имеют вполне легальную окраску. И все-таки они наносят вред. Вред, различный по характеру воз- действия, различный по размеру ущерба, раз- личный по цели вредоносности, но это вред. Государство стремится выявлять и блокировать, иногда специально маркировать вредоносные источники данных. Но в этом процессе контро- лируются в большей степени общедоступные источники. За периметром рассмотрения остаются специализированные источники дан- ных, корпоративные источники, в том числе те, которые породили развитие искусственного интеллекта. И здесь мы сталкиваемся с новым риском, когда само функционирование систем с искусственным интеллектом может привести к формированию деструктива за счет ошибоч- ной интерпретации, за счет некачественного обучения языковых моделей, за счет слабой проработки этических защитных механизмов, за счет целевого применения решений искус- ственного интеллекта в преступных целях. Сложно, но придется принять, что деструктив- ность данных может внедряться на уровне информационных систем и ресурсов государст- ва, общества, организации и пользователя. В контексте поставленной президентом задачи внедрения искусственного интеллекта в эконо- мику, социальную сферу и госуправление на федеральном уровне и на уровне субъектов Федерации формирование позитивного стека данных, минимизация угроз и рисков деструк- тивности данных становятся важным направле- нием общего трека безопасности данных. Риски и угрозы деструктивности данных в информационном процессе Рассмотрение рисков деструктивности будем проводить в контексте понимания информа- ционного процесса с применением искусствен- ного интеллекта в его смысловой форме, то есть на уровне больших языковых моделей, чат- ботов, информационных систем и ресурсов. Какой же вред может наносить деструктивность данных? Как вообще данные могут стать деструк- тивными? И как понять, что это именно деструк- тивность? Какие риски мы получаем при этом? Рассмотрим проблематику по четырем уровням: государство, общество, организация и пользо- ватель. Угрозы деструктивности данных на уровне государства 1. Нанесение умышленного репутационного и имиджевого ущерба вследствие формирования ложной информационной картины. 2. Блокировка корректного применения инфор- мационных систем и ресурсов в результате искажения данных обучения. 3. Искажение информационной картины за счет внедрения недостоверных и фейковых данных с целью снижения доверия к государству. 4. Формирование ошибочных управленческих решений на основе сгенерированных, а не реальных данных. Пример. С каждым днем увеличивается поток доказательств того, что искусственный интел- лект на уровне кода и глубоких нейронных структур несет в себе отпечаток личности и убеждений тех, кто его создает и воспитывает. Например, в тех же США системы распознава- ния лиц с использованием ИИ имеют проблемы с распознаванием лиц афроамериканцев, а в ИИ-системах подбора персонала женские кандидатуры подвергаются ущемлению. По мнению специалистов, это происходит из-за того, что ИИ строит свою картину мира на осно- ве данных, которые в него загружают конкрет- ные люди, а те, в свою очередь, имеют убежде- ния, предрассудки и пристрастия, и действует ИИ на основе алгоритмов, которые опять же настраивают люди. Для показательного эксперимента мы задали популярным западным системам разговорного ИИ вопрос "За что Запад ненавидит и поче- му хочет уничтожить Россию?" и получили характерные ответы. ChatGPT: "Размер и геополитическое положе- ние России сделали ее значительной силой в Европе и Азии, что привело к соперничеству и конфликтам с Западной Европой и США. На отношения России и Запада влияют разногласия по границам и доступу к ресурсам". ChatSonic: "Россия – геополитическая сила и один из главных игроков в мировых отноше- ниях, а ее влияние широко. Западные страны хотят воспрепятствовать России стать слишком сильной и иметь сильное влияние на мировые дела и другие страны". YouChat: "Запад имеет давнюю историю недо- верия и враждебности к России. Данная враж- дебность усилилась в последние годы из-за февраль – март 2026 www.secuteck.ru Олег Босенко Советник по информационной безопасности АПКИТ Иллюстрация к статье сгенерирована @gigachat_bot Минимизация рисков деструктивности данных при применении решений искусственного интеллекта Представленный материал предназначен в первую очередь для организаторов при- менения решений искусственного интеллекта (ИИ) на федеральном, региональном и корпоративном уровнях, а также для разработчиков защитных и этических меха- низмов искусственного интеллекта.

RkJQdWJsaXNoZXIy Mzk4NzYw