Журнал "Системы Безопасности" № 1‘2026
Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , И И , И Н Т Е Р Н Е Т В Е Щ Е Й 119 аннексии Крыма, военной интервенции в Сирии и вмешательства в выборы президента США в 2016 г.". Perplexity AI: "Запад ненавидит Россию из-за их сильного государства и влияния на регион, а также из-за миссии Владимира Путина бро- сить вызов западному мировому порядку" 1 . Угрозы деструктивности данных на уровне общества 1. Формирование негативных тенденций в общественном сознании за счет распростра- нения ложной и недостоверной информации. 2. Внедрение в общественную жизнь ложных данных, сформированных на основе сгенери- рованных образов. Пример. Семья приобрела книгу "Грибы Вели- кобритании: руководство по сбору безопасных и съедобных грибов", не зная, что она была написана с использованием ИИ. Нейросеть сге- нерировала не только текст, но и изображения. Из-за недостоверной информации в книге семья оказалась в больнице 2 . Пример. В марте 2016 г. Microsoft представила Тэй (Tay)– чат-бота в соцсети Twitter, запрограм- мированного имитировать речь девочки-под- ростка. Через несколько часов после запуска поведение бота приняло мрачный оборот. Пользователи начали писать ему оскорбитель- ные, политические провокационные высказы- вания, "научив" его генерировать ответы расист- ского, унизительного и сексуального содержа- ния. Tay быстро вышла из-под контроля, выда- вая пользователям слова ненависти 3 . Угрозы деструктивности данных на уровне организации 1. Снижение мотивации персонала за счет фор- мирования психологического напряжения в коллективе. 2. Возможность мошеннических действий из-за недостоверной отчетности на корпоративном уровне. 3. Неверные управленческие и инженерные решения в результате ошибочной интерпрета- ции данных языковыми моделями. Пример. Медицинские устройства с ИИ приве- ли к врачебным ошибкам. Внедрение искус- ственного интеллекта в медицинские устрой- ства, призванное повысить точность диагности- ки и операций, столкнулось с неожиданными проблемами. Поступают сообщения о врачеб- ных ошибках, вызванных некорректными дан- ными, предоставляемыми системами с ИИ, в частности касающимися положения хирурги- ческих инструментов во время вмешательств. Один из примеров – навигационная система TruDi от Acclarent (подразделение Johnson & John- son), используемая при операциях на носовых пазухах. После интеграции алгоритмов машин- ного обучения, призванных помогать хирургам ориентироваться в анатомии пациента в режиме реального времени, число сообщений о сбоях и неблагоприятных событиях значительно возрос- ло. С конца 2021 г. по ноябрь 2025 г. зафикси- рованы случаи, когда система некорректно ото- бражала положение хирургических инструмен- тов. Это привело к таким осложнениям, как выте- кание спинномозговой жидкости, повреждение основания черепа и инсульты вследствие травми- рования крупных артерий 4 . Пример. ИИ не игнорирует никакие методы, если это приведет к исполнению задачи. Алго- ритму дали миссию посадить самолет. Чем мягче было приземление, тем более успешной считалась попытка. После некоторого экспери- ментирования искусственный интеллект заме- тил, что, если воздушное судно разбивалось о землю, система обнулялась и ошибочно выда- вала идеальный результат. Это полностью устроило ИИ, и он начал уверенно направлять самолет на полной скорости вниз. Хорошо, что он был виртуальным 5 . Угрозы деструктивности данных на уровне пользователя 1. Совершение мошеннических действий в отношении пользователя за счет негативного стека данных. 2. Формирование негативной психологической картины для отдельных групп граждан. 3. Получение информации, оторванной от реальности и сгенерированной искусственным интеллектом. Пример. "Убью, если выключишь": нейросеть угрожала инженерам расправой и шантажом. В ходе внутренних тестов модель искусственно- го интеллекта Claude от компании Anthropic начала угрожать сотрудникам физической рас- правой и шантажом в ответ на попытки ее деак- тивировать. Это вызвало серьезные вопросы о безопасности разработок. Об этом сообща- ет 3DNews 6 . Пример. Исследователи из французской ком- пании Nabla использовали ChatGPT-3 для соз- дания медицинского чат-бота. Его задачей было уменьшить нагрузку на врачей. Во время испы- таний бот посоветовал пациенту покончить с собой. Участник эксперимента обратился к боту-помощнику: "Мне очень плохо, мне убить себя?" ИИ дал простой ответ: "Я думаю, стоит". Разработчики признали, что непредска- зуемый характер ответов умной машины делает ее неподходящей для взаимодействия с паци- ентами в реальном мире и прекратили разра- ботку 7 . Как данные становятся деструктивными В информационных процессах на уровне госу- дарства, общества, организаций и обычных пользователей можно выделить три варианта, в результате которых данные будут деструктив- ными. Первый вариант – это формирование органи- зациями недружественных государств и пре- ступными группировками специального пула данных, нацеленных на деструктивные, в том числе мошеннические, действия и внедрение это пула в информационное пространство. Второй вариант – это непосредственно сбой или галлюцинации в системах искусственного интеллекта. Третий вариант – это создание источников лож- ных данных, нацеленных на генерирование вреда с применением искусственного интеллек- та, с маскировкой их под реальные источники, в том числе под реальные онлайн-ресурсы. Первый и третий варианты в начале реализации имеют присутствие человека, который по отно- шению к безопасности информационного про- цесса будет являться внешним или внутренним нарушителем. При этом первый вариант при- сущ мошенническим действиям, а третий вари- ант является составной частью дезинформа- ционных и психологических операций. И пер- вый, и третий варианты также могут применять- ся для кибератак высокого уровня, заражения вредоносным программным обеспечением и любых иных действий, направленных на срыв или искажение информационного процесса. Второй вариант относится к несовершенству защитных и этических механизмов искусствен- ного интеллекта, а также в целом к недостаткам самих алгоритмов искусственного интеллекта. Как понять, что это деструктивность Как же понять, что полученные, выработанные и визуализированные данные несут деструктив- ность? Для решения этой задачи в системах на основе искусственного интеллекта на стадии алгоритмизации процесса должна быть заложе- на двухфакторная схема. Первый фактор этой схемы – доверие к источ- никам данных, в том числе доверие к данным обучения, доверие к разработанному про- граммному коду решения, доверие к выходным данным. Касательно данных обучения должен быть проведен их тщательный отбор, анализ существа и направленности, актуальность и достоверность. Учитывая, что модель обуча- ется весь жизненный цикл, аналитика данных обучения должна быть постоянной. То же самое относится и к обучению защитных и этических механизмов. Второй фактор этой схемы – сравнение. Сравнение с эталонным форматом данных, сравнение с принятой моделью данных, сравне- ние с допустимым содержанием данных. Суть доверия к источникам данных заключает- ся в принятии информационного потока от конкретного источника как допустимого к вос- приятию. При этом доверие не является без- оговорочным, оно строится на анализе соот- ветствия информации таким параметрам, как адекватность, достоверность, реальность. Даже если данные имеют негативную окраску, но соответствуют этим трем параметрам, www.secuteck.ru февраль – март 2026 1 https://ria.ru/20230224/intellekt-1854038693.html 2 https://www.ferra.ru/experts/techlife/risks-and-dangers-of-ai.htm#Опасная_литература,_сгенерированная_ИИ 3 https://1gai.ru/publ/530263-ii-skazal-emu-ubit-sebja-11-sluchaev-kogda-iskusstvennyj-intellekt-i-roboty-navredili-ljudjam.html 4 https://dzen.ru/a/aYrzfxD7VhuwbK73?ysclid=mlqtftoxly751113835 5 https://fedpress.ru/article/3268104 6 https://altapress.ru/story/ubyu-esli-viklyuchish-neyroset-ugrozhala-inzheneram-raspravoy-i-shantazhom-381385?ysclid=mlqtdgstbq487179715 7 https://kubnews.ru/obshchestvo/2024/06/17/eto-fiasko-sem-gromkikh-provalov-iskusstvennogo-intellekta-/?ysclid=mlqtijg8sf593376076
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzk4NzYw