Журнал "Системы Безопасности" № 6‘2022

S E C U R I T Y A N D I T M A N A G E M E N T 35 Отчеты о реализации регламента (ЕС) № 300/2008 и принятых в его развитие доку- ментов публикуются ежегодно. Последний отчет, относящийся к 2017 г., был опубликован в 2019 г. Ознакомиться с текстами/выдержками из стандартов ECAC, регламентов ЕС и т.д. можно на сайте официальном сайте ЕС (EUR- Lex Access to European Union Law) на английском языке. При анализе текстов данных регулирующих актов можно обнаружить инструмент компле- ментарности технологий. например, в ЕС дей- ствовали стандарты и в отношении досмотра ручной клади. Применялись три технологии: 1) ручной досмотр 100% объектов; 2) досмотр обычным рентгенотелевизионным интроскопом (РТИ) – в этом случае служба авиационной безопасности должна исследовать 5–10% объектов с помощью комплементарных технологий (детекторы взрывчатых веществ, собаки, ручной досмотр); 3) досмотр РТИ-системами, сертифицирован- ными на взрывчатые вещества. При этом для взрывчатых веществ были раз- работаны три отдельных регламента, каждый из которых по-разному решал задачу, можно ли оставлять в ручной клади ноутбуки, другие электронные устройства и емкости с жидко- стями. В отношении досмотра багажа самый популяр- ный по упоминанию стандарт – 3 ECAC. Стандарт 3 представляет собой структуру прове- дения досмотра, определенную ECAC (Европей- ской конференцией гражданской авиации) и предусматривающую применение технологии компьютерной томографии (КТ) уже на 1-м уровне, тем самым практически автоматизируя процесс обнаружения угрозы. Система автома- тизированного обнаружения анализирует содер- жимое багажа и выносит решение ("подозри- тельный" или "без подозрений"). затем оператор на следующем уровне в режиме реального вре- мени получает 3D-изображение сканируемого багажа. В случае возникновения подозрений изображение багажа отправляется другому опе- ратору для детального анализа (уровень 3). Оператор 3-го уровня принимает решение и при необходимости отправляет подозритель- ный багаж на уровень ручного досмотра (уро- вень 4). Так обычно данный процесс описывают производители и профильные специалисты. необходимо отметить, что РФ не является чле- ном ECAC и стандарты, решения данной орга- низации могут быть обозначены как некая акку- муляция передового опыта и чек-системы средств досмотра. Ответственность систем искусственного интеллекта на этом моменте необходимо признать прин- ципиальное различие в законодательном под- ходе, которое может быть проиллюстрировано на примере досмотра багажа. В случае с ЕС: если на 1-м уровне применяется КТ, то после принятия системой автоматизиро- ванного обнаружения решения "подозритель- ный багаж" или "багаж без подозрений" послед- ний может быть отправлен на комплектование для последующей погрузки на воздушное судно. В случае с РФ: независимо от количества уров- ней досмотра, применяемых технологий, их сочетания все изображения отправляются для анализа оператору. Окончательное решение "подозрительный багаж" или "багаж без подо- зрений" остается за человеком. Такой подход, очевидно, связан с вопросом персонификации ответственности. на кого ее возлагать, если система автоматизированного обнаружения или искусственный интеллект примут непра- вильное решение? Из данного вопроса вытекает другой – связанный с минимизацией человече- ского фактора. Если ознакомиться с аналитикой по соотноше- нию ошибок систем автоматизированного обнаружения/искусственного интеллекта и ошибок интерпретации изображений челове- ком, можно сделать крайне удивительные выводы. Когда идет речь об автоматизации процесса досмотра в аэропорту, представляется возмож- ным, исходя из законодательной базы, гово- рить лишь об автоматизации вспомогательных процессов. Если говорить о "глубокой" автома- тизации, в частности о замене функции интер- претации изображений и принятия решения оператором на автоматизированные системы и искусственный интеллект (ИИ), то текущее рос- сийское законодательство такой возможности не предоставляет. здесь впору задать вопрос: автоматизация и право – есть ли контакт? насколько адекватно правовая система способна реагировать на пра- вонарушения, являющиеся следствием эксплуа- тации искусственного интеллекта? Ведь самым значимым вопросом является вопрос гражданско-правовой ответственности за вред, причиненный жизни и здоровью в про- цессе эксплуатации ИИ. Данные факты переста- ли быть уделом теории, когда в 2018 г. беспи- лотный автомобиль одного известного агрега- тора сбил человека на пешеходном переходе. Дело закончилось мировым соглашением. Теперь соотнесем эти тезисы с вопросами авто- матизации и применения искусственного интел- лекта при досмотре. аэропорт – особый режимный объект, на кото- рый возложена задача обеспечения требований авиационной и транспортной безопасности. Представьте ситуацию: некое программное обеспечение анализирует багаж пассажира, определяет его как неопасный, но ошибается. Результатом ошибки становится взрыв на борту. Кто ответственен за причинение вреда, на кого следует ответственность возложить? на разра- ботчика системы ИИ? на производителя товара, работающего на основании ИИ? на пользователя системы ИИ, так как он добросовестно полагался на действие программ ИИ? Если да, то на каких условиях? В настоящее время ведущие ученые и правове- ды мира работают над проблематикой квали- фикации ответственности искусственного интеллекта, и ответов на многие вопросы по- прежнему нет. Введение в оборот систем ИИ при любых обстоятельствах сопровождается возникнове- нием ряда проблем юридического характера, начиная с самого определения искусственного интеллекта, данного в Федеральном законе от 24.04.2020 г. № 123-Фз "О проведении экспе- римента по установлению специального регу- лирования в целях создания необходимых условий для разработки и внедрения техноло- гий искусственного интеллекта в субъекте Рос- сийской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персо- нальных данных". По словам экспертов, основная проблема заключается в отсутствии общего подхода к регулированию интеллектуальной собствен- ности в сфере ИИ не только в Российской Феде- рации, но и в зарубежных странах. Необходимость системы верификации качества средств досмотра В РФ нет эффективной чек-системы средств досмотра – этого необходимого условия после- дующей автоматизации. К сожалению, неоднократные попытки создать в нашей стране системы верификации качества средств досмотра имеют весьма неоднозначные результаты. Постановление Правительства Рос- сийской Федерации от 26.09.2020 г. № 969 (ПП РФ № 969, постановление № 969) также эту проблему не решило. www.secuteck.ru декабрь 2022 – январь 2023 СПЕЦПРОЕКТ ТРанСПОРТная бЕзОПаСнОСТь Досмотр пассажира и посетителей, ручной клади, багажа и грузов занимает центральное место в комплексе мер по обеспечению авиационной и транспортной безопасности www.s.hdnux.com

RkJQdWJsaXNoZXIy Mzk4NzYw