Журнал "Системы Безопасности" № 1‘2026
Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , И И , И Н Т Е Р Н Е Т В Е Щ Е Й 124 февраль – март 2026 www.secuteck.ru Центральное распределение рис. 4 имеет сле- дующие значения: {E(h)=128; σ (h)=8; P("0")=P("1")=0,5} соответствует подбрасыва- нию одной симметричной монеты, которая с одинаковой вероятностью попадает в состоя- ние 0 и в состояние 1 (см. архитектуру нейро- сети рис. 1). В ситуации, когда распределение сдвигается вправо, его статистические парамет- ры имеют следующие значения: {E(h) = 192; σ (h) = 7,6; P("0") = 0,25; P("1") = 0,75}. В ситуации, когда распределение сдвигается влево, его статистические параметры состав- ляют {E(h) = 64; σ (h) = 7,6; P("0") = 0,75; P("1") = 0,25}. По мере роста асимметрии подбрасываемой монеты стандартные отклонения распределе- ний уменьшаются σ (h) → 0,0. В пределах при E(h) = 0 и E(h) = 256 случайность состояний подбрасываемой монеты исчезает. Выходные состояния 256 нейронов (256 "котов" Шредин- гера) становятся полностью детерминирован- ными. Всегда можно подменить симметричную монету на любую иную монету с заранее задан- ной асимметрией [16]. При этом снижение стандартного отклонения распределений веро- ятности для монет с той или иной асимметрией следует рассматривать как снижение неопреде- ленности Гейзенберга по мере роста числа ней- росетевых молекул [17, 18]. Нейросетевое замещение стаи из 256 бесполезных "котов" Шредингера их обучением до стаи из 256 полезных "собак" Павлова К сожалению, описанная выше программная реализация схемы испытаний Бернулли (см. рис. 5) не способна описывать состояния выходных кодов, обученных алгоритмом ГОСТ Р 52633.5 [8] нейросетей. Проблема состоит в том, что нейросетевая реализация необученных "котов" Шредингера (случайные связи и случайные весовые коэффициенты) способна только на "хеширование" одного "белого" шума в другой "белый" шум. Распозна- вать примеры образов "свой" стая "котов" Шре- дингера не способна. Для того чтобы нейросеть стала способна распознавать примеры образа "свой", необходимо обучить нейроны, превратив "нейрокотов" Шредингера в "нейрособак" Павлова. Упростим задачу обучения нейро- нов до двухмерной. Будем рассматривать любое двухмерное сечение более сложного 416-мерного распределения непрерывных входных данных. Пример такого сечения приведен на рис. 5. Из рис. 5 видно, что рассматриваемое двухмер- ное сечение из стаи в 256 нейронов попали проекции разделяющих гиперплоскостей толь- ко шести обученных нейронов. При этом стан- дартизованный автомат обучения [8] всегда дает линии разделяющего правила, проходя- щие через центр многомерного распределения "все чужие". В этой ситуации после обучения нейросети мы получаем шесть "нейрособак" Павлова, каждая из которых наблюдает приме- ры образа "свой" со своей собственной точки зрения. В итоге шесть "нейрособак" Павлова на любой пример эллипса "свой" будут откликаться одним и тем же кодом 101110. При этом обя- зательно будет существовать инверсия распре- деления примеров образа "свой", которая будет давать стабильный инверсный код 010001. Оба кодовые состояния стабильны и должны иметь энтропию, близкую к нулю. Любые иные кодо- вые отклики нейросети будут иметь гораздо большее значение их энтропии. После каждого обучения нейронной сети (рис. 1) необходимо выполнить тестирование качества ее работы в соответствии с рекомендациями стан- дарта ГОСТ Р 53633.3—2011 [9] на малых тесто- вых выборках. В частности, для тестирования достаточно 32 случайно выбранных образов: "чужой-1", "чужой-2", …, "чужой-32", каждый из которых представлен 20 примерами. Выборка этих данных позволяет найти оценку математи- ческого ожидания (например, E(h) ≈ 128 бит) и оценку стандартного отклонения (например, σ (h) ≈ 29.8 бит). Оценка этих двух статистиче- ских моментов выполняется на достаточно боль- ших выборках в 640 отсчетов. Обладая оценками двух младших статистических моментов, в рам- ках гипотезы нормального распределения дан- ных язык MathCAD имеет возможность оценить вероятность ошибок второго рода вызовом сле- дующей функции: P 2 = pnorm(1, 128, 29.8) ≈ 10 -5 . Последнее означает, что оценка энтропии выход- ных кодов обученной нейросети составит –log(10 -5,2 ) ≈ 16.61 бит. Длина кода 256 бит (рис. 1) велика, однако это только видимость. Реальная энтропия ключа и, соответственно, его стойкость к атакам случайных подстановок более чем в 10 раз меньше. Убедиться в работоспособности быстрых оце- нок энтропии и вероятности появления ошибок второго рода на малых выборках позволяет численный эксперимент, результаты которого приведены на рис. 6. Рис. 5. Частный случай: стаи или сети из шести двухмерных "нейрособак" Павлова, обучен- ных алгоритмом ГОСТ Р 52633.5–2011, преобразовывают примеры образа "свой" в код длин- ной 256 бит Рис. 6. Численный эксперимент по подбрасыванию горстью 256 симметричных монет по модифицированной схеме Бернулли [19]
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzk4NzYw