Журнал "Системы Безопасности" № 4‘2024

рис. 8 показаны результаты распознавания лиц чистого изображения (слева) и "атакованного" изображения (справа). Следует отметить, что на рис. 8 внесены незначи- тельные изменения в изображение, которые могут даже не улавливаться человеческим гла- зом. Однако это приводит к ошибке работы ней- ронной сети. Чтобы бороться с такой атакой, было предложено добавление искаженных изоб- ражений в обучающую выборку и повторное обучение модели. В табл. 3 представлены резуль- таты моделирования ситуации распознавания моделями, обученными с помощью добавления искаженных примеров в различных пропорциях в обучающий датасет, причем использовались только атаки Fast Sign Gradient Method (FGSM). Из табл. 3 можно сделать вывод, что расшире- ние базы не должно быть существенным, одна- ко и маленькое количество инъекций искажен- ных снимков не дает значительного прироста точности. Для исследованного примера данных оптимальной оказалась доля в 20%. Заключение Итак, мы рассмотрели актуальные тенденции в области распознавания лиц и проанализирова- ли ключевые проблемы, стоящие перед иссле- дователями и разработчиками. Особое внима- ние было уделено современным методам глубо- кого обучения, применяемым в задачах обнару- жения, идентификации и верификации лично- сти, методам противодействия различным ата- кам на системы распознавания лиц. Дальнейшее развитие систем, несо- мненно, будет сопро- вождаться появлением новых вызовов. Для обеспечения их надежности и безопасности необходимо продолжать интенсивные исследо- вания в областях глубокого обучения, компью- терного зрения, а также методов защиты инфор- мации и обеспечения устойчивости и надежно- сти работы нейронных сетей, в том числе за счет объясняемого искусственного интеллекта. Толь- ко комплексный подход, сочетающий передо- вые научно-технические разработки и эффек- тивные меры правового регулирования, позво- лит в полной мере раскрыть потенциал техноло- гий распознавания лиц на благо общества. Список литературы 1. Kumar N., Berg A., Belhumeur P., Nayar S. Attri- bute and Simile Classifiers for Face Verification // ICCV 2009, p. 1–8, Режим доступа: https://www.cs.columbia.edu/CAVE/publica- tions/pdfs/Kumar_ICCV09.pdf, дата обращения: 24.07.2024. 2. Deng J., Guo J., Yang J., Xue N., Kotsia I., Zafeiriou S. ArcFace: Additive Angular Margin Loss for Deep Face Recognition // arXiv preprint, 2018. Режим доступа: https://arxiv.org/abs/1801.07698, дата обращения: 24.07.2024. 3. Андриянов Н.А., Куличенко Я.В. Применение генеративных моделей изображений для аугмен- тирования данных обучения детектора лиц // Нейрокомпьютеры: разработка, применение. 2023. T. 25. № 5. С. 7–15. DOI: https://doi.org/ 10.18127/j19998554-202305-02. 4. Svitov D.V., Alyamkin S.A. Distilling face recog- nition models trained using margin-based softmax function // Automation and Remote Control vol. 83(10), pp. 1517–1526. 5. Komkov S., Petiushko A. AdvHat: Real-world adversarial attack on ArcFace Face ID system // arXiv preprint, 2019, pp. 1–9. Режим доступа: https://arxiv.org/abs/1908.08705 (дата обра- щения: 24.07.2024). 6. Labelled Faces in the Wild. – [Электронный ресурс]. – URL: https://www.kaggle.com/data- sets/jessicali9530/lfw-dataset (дата обращения: 23.07.2024). 7. WIDER Faces Dataset. – [Электронный ресурс]. – URL: https://www.kaggle.com/data- sets/mksaad/wider-face-a-face-detection-bench- mark (д ата обращения: 23.07.2024). 8. Wu W., Peng H., Yu S. YuNet: A Tiny Millisecond- level Face Detector // Machine Intelligence Rese- arch, 2023, 4(2), pp. 18–32. 9. Kaziakhmedov E., Kireev K., Melnikov G., Pautov M., Petiushko A. Real-world adversarial attack on MTCNN face detection system. Режим доступа: https://arxiv.org/abs/1910.06261 (дата обра- щения: 24.07.2024). 10. Andriyanov, N. Methods for Preventing Visual Attacks in Convolutional Neural Networks Based on Data Discard and Dimensionality Reduction. Appl. Sci. 2021, 11, 5235. https://doi.org/10.3390/app11115235. n Иллюстрации предоставлены автором. www.secuteck.ru август – сентябрь 2024 БИОМЕТРИЧЕСКИЕ СИСТЕМЫ  С И С Т Е М Ы К О Н Т Р О Л Я И У П Р А В Л Е Н И Я Д О С Т У П О М 61 Изображение Среднее время обработки методом Виолы – Джонса, мс Среднее время обработки моделью YuNet, мс Очки 38,6 12,3 Маска 361 156 Ночь 17,2 11,2 Митинг 660 113 Лыжники 640 116 Таблица 2. Сравнение производительности моделей детекции лиц Таблица 3. Повышение эффективности распознавания за счет аугментации обучающих данных Доля примеров FGSM-атак в обучающей выборке, % Точность распознавания на тесте, % 0 62,8 3 64,1 5 68,9 7 76,7 20 85,9 25 82,6 30 80,7 4 E. Kaziakhmedov, K. Kireev, G. Melnikov, M. Pautov, A. Petiushko, "Real-world adversarial attack on MTCNN face detection system", URL: https://arxiv.org/abs/1910.06261 Ваше мнение и вопросы по статье направляйте на ss @groteck.ru Рис. 5. Обработка тестовых снимков методом Виолы – Джонса Рис. 6. Обработка тестовых снимков моделью YuNet Рис. 7. Срыв работы детектора с помощью патчей на маске 4 Рис. 8. Срыв работы классификатора с помощью визуальной атаки

RkJQdWJsaXNoZXIy Mzk4NzYw