Журнал "Системы Безопасности" № 4‘2023
Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , A I , I o T 124 Прогнозирование необходимого числа используемых нейрокритериев для достижения заданной доверительной вероятности Так как мы можем создать достаточно большие сети искусственных нейронов, нам нужно уметь предсказывать число нейронов в них по заранее заданному значению доверительной вероятно- сти. Проще всего это сделать, опираясь на про- цедуру симметризации корреляционных связей выходных разрядов нейросети [4]. Изначально задача моделирования с учетом влияния корреляционных связей асимметрич- на. Входные обогатители трех использованных статистических критериев {x2, μ4, V} для малых выборок в 16 опытов имеют следующие значе- ния парных коэффициентов корреляции: corr(x2,μ4) ≈x-0,081, corr(x2,V) ≈ 0,206, corr(μ4,V) ≈ -0,876. Моделировать данные для воспроизведения асимметричных корреляционных матриц слож- но. По этой причине выполняют симметриза- цию матрицы корреляционных связей через усреднение модулей всех коэффициентов кор- реляции, находящихся вне диагонали. В итоге мы получаем симметризованную корреляцион- ную матрицу с одинаковыми коэффициентами корреляции, расположенными вне диагонали. Для того чтобы получить симметрично коррели- рованные данные, достаточно вектор данных, полученных от одного программного генератора псевдослучайных чисел, умножить на симметрич- ную связывающую матрицу. Связывающая сим- метричная матрица для рассматриваемой нами нейросети приведена в правой части рис. 3. Для симметричных матриц 3х3, 5х5, 9х9 доста- точно просто выполнить моделирование, обес- печивая равные коэффициенты корреляции 0,388. Результаты такого моделирования и исправления ошибок представлены на рис. 4. Из данных рис. 4 следует, что использование множества нейронов, каждый из которых оши- бается с вероятностями P 1 ≈ P 2 ≈ P EE ≈ 0,326 (как нейрокритерий Пирсона, см. рис. 1), поз- волит добиться доверительной вероятности 0,9 только для нейросети из 2 000 нейронов. В этом контексте крайне важно создавать новые статистические критерии с уровнем вероятно- стей ошибок P 1 ≈ P 2 ≈ P EE ≈ 0,1 [4, 8] и менее. Если объединять в одну сеть искусственные нейроны, заранее предобученные принимать решения с вероятностью ошибок 0,1, то для принятия решений с доверительной веро- ятностью 0,99 потребуется совместно исполь- зовать примерно 40 искусственных нейронов. Именно по этой причине интерес к синтезу новых статистических критериев в XXI веке не угаснет. Сверхбыстрое обучение "на лету" сетей из предобученных искусственных нейронов по предельно простым правилам Алгоритмы глубокого обучения многослойных нейронных сетей [9, 10] сегодня следует рас- сматривать как пример возможного обучения с нуля. Задавшись структурой нейросети и имея миллионы примеров, распознаваемых образов, можно потратить несколько лет на глубокое обучение. Вполне реально, пользуясь техноло- гией глубокого обучения, создать еще одну новую "Алису" или "Марусю". При этом велика вероятность того, что очередная "Алиса" в обыч- ный телефон не поместится, все настоящие и будущие "Алисы" и "Маруси" должны будут гнездиться в каких-то облачных серверах, при- надлежащих Яндексу или Googlе. Если отклю- чить Интернет, то искусственный интеллект "Алисы" и "Маруси" испарится вместе с ним. Сколько занимает места искусственный интел- лект "Алисы" и "Маруси" на облачных серверах, никто не знает, это коммерческая тайна их собственников. Очевидно, что это все для естественной приро- ды неприемлемо. В природе нет Интернета, в природе необходимо очень быстрое обучение "на лету". Первый стандарт по быстрому авто- матическому обучению "на лету" ввела Россия в 2011 г. [11]. В 2022 г. ТК 164 ("Искусственный интеллект") провел публичное обсуждение пер- вой редакции второго национального стандарта по быстрому автоматическому обучению "на лету" сетей корреляционных нейронов [12]. По планам ТК 164, окончательная редакция стан- дарта [12] может быть введена в действие в 2024 г. Поясним на конкретном алгоритме преимуще- ства быстрого обучения "на лету" сети искус- ственных нейронов, предобученных распозна- вать нормальные и равномерно распределен- ные данные. Для определенности будем ориентироваться на данные свободно распространяемой среды моделирования "БиоНейроАвтограф" [13]. Среда моделирования специально создана про- зрачной, можно посмотреть все операции, которые она выполняет над биометрическими данными динамики рукописного почерка. Она работает с любым графическим планшетом или с обычным манипулятором "мышь". Обучение нейросети в среде моделирования ведется по алгоритму ГОСТ Р 52633.5 [11] на выборках в восемь и более примеров рукописной буквы либо сочетания рукописных букв (рукописного пароля). Предобработка данных в среде моделирования "БиоНейроАвтограф" выполняется вычислением 416 младших коэффициентов двухмерного преобразования Фурье. Обученная нейросеть выдает уникальный код аутентификации поль- зователя "свой" длиной 256 бит. Отметим, что среда моделирования имеет 256 нейронов, каждый из которых имеет по 24 входа, случайно подключенных к вектору из 416 контролируемых биометрических парамет- ров. Число 24 входа у нейронов выбрано пото- му, что биометрические параметры, полученные от манипулятора "мышь", имеют низкое каче- ство. Если среда моделирования работает с гра- фическим планшетом, то качество биометриче- ских параметров улучшается и можно исполь- зовать по 16 входов у каждого искусственного нейрона. Будем исходить из того, что предобученные нейроны имеют по 16 входов. Перед обучением необходимо задать код аутентификации дли- ной 256 бит. Алгоритм обучения сводится к псевдослучайному выбору 16 входных пара- метров для каждого нейрона. Начало алгоритма сводится к упорядочиванию биометрических параметров по значению их август – сентябрь 2023 www.secuteck.ru Рис. 4. Прогноз снижения вероятностей ошибок с ростом числа искусственных нейронов, предобученных разделять нормально распределенные и равномерно распределенные данные малых выборок
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzk4NzYw