Журнал "Системы Безопасности" № 4‘2023
Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , A I , I o T 125 математических ожиданий. Если нам нужно получить отклик одного нейрона (группы ней- ронов по рис. 2) с состоянием "0", то на его входы нужно подать биометрические парамет- ры с рядом лежащими математическими ожи- даниями. Эта ситуация отображена в верхней части рис. 5 (все 16 параметров выбраны слу- чайно в интервале номеров от 0 до 50). Если нам требуется обратная ситуация и нейрон должен откликаться состоянием "1", то нужно сформировать на его входах равномерно рас- пределенные данные. Для этого следует "растя- нуть" данные по большому интервалу от 0 до 200 (нижняя часть рис. 5). Алгоритм автоматического обучения оказыва- ется очень быстрым и очень простым. Для всех нейронов с откликом "0" случайно выбирается целое число -k от 0 до 365. Далее из интервала от k до (k + 49) случайно выбирают 16 чисел. В итоге мы получаем таблицу входных связей конкретного нейрона (группы нейро- нов). Таблица связей будет очень "компактной" по порядку значений 16 математических ожи- даний. Расстояние между соседними номерами в такой таблице составит около трех. Для всех нейронов с откликом "1" число -k выбирают случайно из интервала от 0 до 215. Далее 16 номеров связей выбирают случайно из чисел от k до (k + 199). В итоге мы получим "растянутую" таблицу связей с расстоянием между соседями примерно в 10 номеров. При обучении никаких сложных вычислений не выполняется. Алгоритм предельно быстрый и абсолютно устойчивый. Заключение Одно из глубоких заблуждений современной нейронауки состоит в том, что используемые искусственные нейроны должны быть однотип- ными и отличаться друг от друга только настройками. Такое теоретическое упрощение не является безобидным и приводит к тому, что искусственные мозги "Алисы" и "Маруси" ока- зываются огромными. Они не могут быть раз- мещены в телефоне, их можно залить только в огромные серверы облачных сервисов, потребляющие не 40 Вт, а все 400 000 Вт. Более того, и "Алиса", и "Маруся" с медицинской точки зрения являются дебилками. Они не способны к быстрому обучению "на лету", их глубоко обучали очень, очень долго и только один раз в жизни. Последующие попытки дообучения практически ничего не дают. Совершенно иную ситуацию мы наблюдаем в природе. Нейроны сетчатки глаза и слуховой улитки уха совершенно разные. Они генетиче- ски сформированы и генетически предобучены под решение разных функциональных задач. Нейроны сетчатки глаза способны различать всего три цвета – RGB (красный, зеленый, синий), но их миллионы (решается двухмерная задача с учетом места положения нейронов). Нейроны улитки уха различают тысячи звуковых частот, но их мало (решается одномерная зада- ча анализа спектра Фурье). Нейроны в наших головах разные, и каждый из них генетически предобучен решать только свою задачу и генетически размещен только в нужном месте нашего естественного вычисли- теля. Нельзя считать нейроны сетчатки глаза и нейроны улитки уха одинаковыми и тасовать их в произвольном порядке. Если мы позволим себе так поступать, то получим дебильных монстров огромных размеров с огромным потреблением энергии. В данной работе я попытался продемонстриро- вать возможность очень быстрого обучения "на лету", если мы будем располагать примерно 40 разными по структуре и по-разному пред- обученными искусственными нейронами. Фак- тически речь идет о предварительном генетиче- ском обобщении положительного опыта стати- стического анализа данных, полученных иссле- дователями прошлого века [1, 4]. Преобразо- вав множество статистических критериев про- верки той или иной гипотезы в искусственные нейроны, мы фактически получаем некоторый нейробазис для очень быстрого обучения ней- росетей "на лету". Список литературы 1. Кобзарь А. Прикладная математическая ста- тистика. Для инженеров и научных работников. М.: ФИЗМАТЛИТ, 2006. 2. Р 50.1.037–2002 Рекомендации по стандар- тизации. Прикладная статистика. Правила про- верки согласия опытного распределения с тео- ретическим. Часть I. Критерии типа 2. Госстан- дарт России. М.: 2001. 3. Иванов А.П., Иванов А.И., Малыгин А., Без- яев А., Куприянов Е., Банных А., Перфилов К., Лукин В., Савинов К., Полковникова С., Сери- кова Ю. Альбом из девяти классических стати- стических критериев для проверки гипотезы нормального или равномерного распределения данных малых выборок // Надежность и каче- ство сложных систем. 2022. № 1. С. 20–29. 4. Иванов А.И. Нейросетевой многокритериаль- ный статистический анализ малых выборок. Справочник / Пенза: издательство Пензенского государственного университета. 2022. 5. Pearson E. S. A further development of tests for normality // Biometrika. 1930. Vol. 22. P. 239–249. 6. Vasicek O. A test for normality based on sample entropy // Journal of the Royal Statistical Society. 1976. Vol. 38, № 1. P. 54–59. 7. Морелос-Сарагоса Р. Искусство помехоустой- чивого кодирования Москва: Техносфера. 2007. 8. Иванов А.П., Иванов А.И., Безяев А., Куприя- нов Е., Банных А., Перфилов К., Лукин В., Сави- нов К., Полковникова С., Серикова Ю., Малы- гин А. Обзор новых статистических критериев проверки гипотезы нормальности и равномер- ности распределения данных малых выборок // Надежность и качество сложных систем. 2022. № 2. С. 33–44. 9. Николенко С., Кудрин А., Архангельская Е. Глубокое обучение. Погружение в мир нейро- нных сетей. / СПб.: издательский дом "Питер". 2018. 10. Аггарвал Чару. Нейронные сети и глубокое обучение / СПб.: Диалектика. 2020. 11. ГОСТ Р 52633.5–2011 Защита информации. Техника защиты информации. Автоматическое обучение нейросетевых преобразователей био- метрия-код доступа. 12. Первая редакция стандарта "Искусственный интеллект. Нейросетевые алгоритмы в защи- щенном исполнении. Автоматическое обучение нейросетевых моделей на малых выборках в задачах классификации". Введение окончатель- ной редакции нового стандарта в действие запланировано в 2024 г. 13. Иванов А.И., Захаров О. Среда моделиро- вания "БиоНейроАвтограф". http://пниэи.рф/ activity/science/noc/bioneuroautograph.zip для свободного использования любым русскоязыч- ным университетом. n www.secuteck.ru август – сентябрь 2023 Рис. 5. Примеры выбора номеров входных данных у искусственных нейронов, откликающихся состоянием "0" (нормальное распределение) и состоянием "1" (равномерное распределение) Ваше мнение и вопросы по статье направляйте на ss @groteck.ru
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzk4NzYw