Журнал "Системы Безопасности" № 1‘2021
Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я : A I , У М Н Ы Й Г О Р О Д , I o T 58 цели, например, могут быть использованы заранее обученные искусственные нейроны. По сути, это и есть тот национальный технологиче- ский тренд, которым руководствуются отече- ственные специалисты в XXI веке: использова- ние сетей искусственных нейронов для обога- щения сырых биометрических данных зафикси- ровано базовым отечественным стандартом ГОСТ Р 52633.0 10 в 2006 г. Все типы искусственных нейронов способны обогащать биометрические данные за счет совместного использования вместо одного "хорошего" информативного входного парамет- ра нескольких "плохих" низкоинформативных входных биометрических параметров. Все типы нейронов становятся способны объединять несколько "плохих" низкоинформативных био- метрических параметров, превращая их в один выходной "хороший" параметр, только после их обучения на некоторой обучающей выборке. В этом контексте принципиальным технологи- ческим элементом является создание абсолют- но устойчивых полностью автоматических алго- ритмов обучения. Для искусственных нейронов с обогащением данных в многомерном линей- ном пространстве стандарт автоматического обучения ГОСТ Р 52633.5 11 в России введен в действие в 2011 г. Предположительно в 2023 г. может появиться второй национальный стан- дарт автоматического обучения сетей нейро- нов, осуществляющих обогащение биометриче- ских данных в многомерных квадратичных про- странствах 12 . Вполне возможно, что в более поздние сроки появятся и другие стандарты быстрого автоматического обучения искус- ственных нейронов с обогащением в экзотиче- ски деформированных многомерных простран- ствах. Например, в будущем возможно приме- нение искусственных нейронов с обогащением данных в многомерных пространствах с поли- номиально-ортогональной деформацией 13 . С другой стороны, если нет полностью автома- тического абсолютно устойчивого алгоритма обучения, то говорить о доверенном искус- ственном интеллекте нельзя. Участие в обуче- нии человека-учителя всегда предполагает высокий уровень "доверия" к нему. Если в обучении искусственного интеллекта участво- вал неизвестно кто, тогда и доверия к непонят- но кем обученному искусственному интеллекту нет и не может быть. Таким образом, наличие устойчивых алгоритмов обучения (устойчивость не утрачивается при любом числе входов у обучаемых нейронов) полностью снимает проблему преобразования биометрии в код любой длины. Для ее решения достаточно использовать нейросеть с необходи- мым числом нейронов. Так, для получения ключа длинной в 64 бита потребуется сеть из 64 ней- ронов. Для получения ключа длиной 256 бит нужна нейросеть, состоящая из 256 нейронов. При этом число входов у нейронов выбирается исходя из качества обрабатываемых биометри- ческих данных. Чем хуже качество входных дан- ных, тем больше требуется входов у нейронов, обогащающих сырые входные данные. На рис. 3 приведена нейросеть, собранная из 256 нейро- нов, каждый из которых имеет четыре входа. Следует отметить относительную простоту уве- личения корректирующей способности сетей искусственных нейронов при наличии полностью автоматических алгоритмов обучения. Достаточ- но увеличить число входов у нейронов, напри- мер случайно подключив их к биометрическим данным, и запустить алгоритм автоматического обучения. Синтезировать столь простым спосо- бом новые классы кодов с обнаружением и исправлением ошибок нельзя. Именно по этой причине (быстрого автоматического обучения) сети искусственных нейронов корректируют ошибки намного эффективнее классических кодов с обнаружением и исправлением ошибок, неспособных к адаптации через обучение. Отечественная техническая спецификация: защита таблиц обученной сети искусственных нейронов криптографическими механизмами Как показано на рис. 1, "нечеткие экстракторы" защищены гаммированием данных, однако все действительно стойкие криптографические алгоритмы защищают данные одновременно и гаммированием, и перемешиванием (размно- жением ошибки расшифровывания). В связи с этим обстоятельством при разработке первой в мировой практике технической спецификации защиты таблиц нейронной сети 14 одновременно были использованы и гаммирование данных, и механизмы размножения ошибок. Применение соответствующих криптографиче- ских механизмов защиты таблиц обученной нейронной сети иллюстрирует рис. 4. При защите таблицы связей T Ci и таблицы весо- вых коэффициентов T Вi используется гамма, которая вырабатывается хешированием конка- тенации состояния предыдущего нейрона сi-1 c таблицей связей предыдущего нейрона T Ci-1 . Это одновременно обеспечивает и синтез защи- щающей гаммы, и работу механизма размно- жения ошибок. Когда создается защищенный контейнер с накрытыми гаммами таблицами нейронов, вычисления не создают проблем, так как все данные известны. При использовании защищенного нейросете- вого контейнера вопросов с обработкой био- метрического образа "свой" не возникает. Вычисления повторяют выходные кодовые состояния всех нейронов и все гаммы, верно восстанавливающие таблицы каждого следую- щего нейрона. Положение кардинально меняется, если защи- щенным нейросетевым контейнером злоумыш- ленник пытается преобразовывать образ "чужой". Выходные коды нейронов не повто- ряют использованную при шифровании комби- нацию. Вырабатываемые гаммы уже не повто- ряют те гаммы, которыми были накрыты табли- цы нейронов. Злоумышленник, предъявивший образ "чужой", не имеет возможности получить данные о том, насколько предъявленный образ похож на образ "свой". Рассматриваемый механизм защиты принципи- ально отличается от механизмов криптографи- ческой защиты "нечетких экстракторов". Во-пер- вых, ключ запуска криптографических механиз- мов может быть длинным, во-вторых, для защи- ты используется не только гаммирование, но и перемешивание данных (хеширование). Все это позволяет утверждать, что разработанная в России техническая спецификация применения криптографических механизмов для защиты таб- лиц сетей искусственных нейронов много силь- нее зарубежных "нечетких экстракторов". n февраль – март 2021 www.secuteck.ru 10 ГОСТ Р 52633.0–2006 "Защита информации. Техника защиты информации. Требования к средствам высоконадежной биометрической аутентификации". 11 ГОСТ Р 52633.5–2011 "Защита информации. Техника защиты информации. Автоматическое обучение нейросетевых преобразователей биометрия-код доступа". 12 Малыгина, Е. А. Биометрико-нейросетевая аутентификация: перспективы применения сетей квадратичных нейронов с многоуровневым квантованием биометрических данных. Препринт. Пенза: Изд-во ПГУ, 2020. 114 с. ISBN 978-5-907262-88-1. 13 Иванов А.И., Куприянов Е.Н. Защита искусственного интеллекта: ортогонализация статистико-нейросетевого анализа малых выборок биометрических данных. Препринт. Пенза: изд-во ПГУ, 2020 г. 72 с. ISBN 978-5-907262-72-0. 14 Техническая спецификация "Системы обработки информации. Криптографическая защита информации. "Защита нейросетевых биометрических контейнеров с использованием криптографических алгоритмов" принята 19.11.2020 г. на XXV заседании технического комитета № 26. Ваше мнение и вопросы по статье направляйте на ss @groteck.ru Рис. 4. Реализация механизмов защиты гаммированием таблиц и размножением ошибок
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzk4NzYw