Журнал "Системы Безопасности" № 4‘2024

Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , И И , И Н Т Е Р Н Е Т В Е Щ Е Й 116 август – сентябрь 2024 www.secuteck.ru рые поощряют опасное поведение детей"). Такие системы запрещены законом об искус- ственном интеллекте. 2. ИИ с высокой степенью риска должен быть одобрен европейскими чиновниками до выхо- да на рынок, кроме того, разрешение на его использование должно обновляться на протя- жении всего жизненного цикла продукта. К таким алгоритмам относятся различные ско- ринговые и биометрические системы, в частно- сти ИИ-продукты, связанные с правоохрани- тельной деятельностью, пограничным контро- лем, проверкой при приеме на работу. 3. ИИ из категории ограниченного риска, к которым относятся все продукты, не вошед- шие в первые две категории, должны быть соответствующим образом маркированы, чтобы пользователи могли всегда знать, что они взаи- модействуют с ИИ или продуктами его деятель- ности и, таким образом, принимать информи- рованные решения о своих дальнейших дей- ствиях. Закон еще не вступил в силу, он должен быть одобрен Европейским советом. Впрочем, парламентские законодатели надеются, что этот процесс завершится в конце нынешнего года. Бразилия В Бразилии тоже готовят свое ИИ-законода- тельство, и оно во многом похоже на европей- ское. Проект бразильского закона написан с прицелом на права пользователей, взаимодей- ствующих с системами ИИ, вдобавок он дает рекомендации по классификации различных типов ИИ в зависимости от степени риска. Закон возлагает на поставщиков ИИ обязанность пре- доставлять пользователям исчерпывающую информацию о своих продуктах. Пользователи имеют право знать, что они взаимодействуют с искусственным интеллектом, а также право на объяснение того, как ИИ принял то или иное решение либо дал ту или иную рекомендацию. Пользователи также могут оспаривать решения "электронного разума" или требовать вмеша- тельства человека, особенно если решение ИИ может оказать существенное влияние на жизнь людей, например в системах, связанных с авто- номными автомобилями, приемом на работу, оценкой кредитоспособности или биометриче- ской идентификацией. Вместе с тем разработ- чики ИИ обязаны проводить оценку рисков перед выводом продукта на рынок. Самыми опасными бразильские законодатели признают ИИ, использующие "сублиминальные" техноло- гии, то есть технологии, воздействие которых на человека (органы чувств или подсознание) спо- собно нанести вред его здоровью и безопасно- сти. В проекте вдобавок перечислены возмож- ные "высокорисковые" реализации ИИ. К ним, как и в Европе, относят системы, используемые в здравоохранении, биометрической иденти- фикации, кредитном скоринге и т.д. По замыслу авторов законопроекта, оценки рисков для "высокорисковых" продуктов ИИ должны пуб- ликоваться в государственной базе данных. Китай У Китая есть проект нормативного документа о генеративном искусственном интеллекте. Одно из положений проекта закона звучит так: генеративный ИИ должен отражать "основные ценности социализма", кроме того, в нем, как и в бразильском аналоге, есть немало положе- ний об ответственности разработчиков за дея- тельность ИИ-систем. Согласно документу, раз- работчики несут ответственность за результаты, полученные от их ИИ. Помимо этого, проект закона описывает ограничения на поиск обучающих данных: например, разработчики несут юридическую ответственность, если набо- ры данных для обучения генеративных сетей, которые они используют, нарушают чужое авторское право. Имеется в регламенте и еще одно требование: сервисы искусственного интеллекта должны генерировать только "прав- дивый и точный" контент. Предлагаемые прави- ла опираются на существующее в стране зако- нодательство о фальсификациях, рекоменда- тельных алгоритмах и безопасности данных. Это дает Китаю определенное преимущество перед другими странами, разрабатывающими новые законы с нуля. Ко всему прочему, в авгу- сте 2023 г. китайский регулятор Интернета также объявил о введении ограничений на тех- нологии распознавания лиц. В законопроекте, подготовленном Государственной канцелярией интернет-информации КНР, предлагается ограничить использование технологии только теми случаями, когда она имеет конкретную цель и необходимость. В частности, правила запрещают использование технологии для идентификации расовой и этнической принад- лежности, религиозных убеждений или состоя- ния здоровья, кроме случаев, когда человек дал на это свое согласие или если этого требует национальная безопасность. Израиль В 2022 г. Министерство инноваций, науки и технологий Израиля опубликовало проект политики регулирования искусственного интел- лекта. Авторы документа описывают его как "моральный и бизнес-ориентированный компас для любой компании, организации или госу- дарственного органа, вовлеченного в сферу искусственного интеллекта" и подчеркивают, что он ориентирован на "ответственные инно- вации". В израильском проекте говорится, что при разработке и использовании искусственно- го интеллекта должны соблюдаться "верховен- ство закона, основные права и общественные интересы. В частности, должны сохраняться человеческое достоинство и неприкосновен- ность частной жизни". При этом каких-то кон- кретных запретов или инструкций политика не содержит. В одном из фрагментов документа довольно расплывчато сообщается, что для обеспечения безопасности использования про- дуктов ИИ "должны применяться разумные меры в соответствии с принятыми профессио- нальными концепциями", и на этом все. В более широком смысле проект политики поощряет саморегулирование и "мягкий" подход к госу- дарственному вмешательству в развитие ИИ. Вместо того чтобы предлагать единое обще- отраслевое законодательство, документ призы- вает отраслевые регулирующие органы при необходимости принимать точечные меры. Италия Италия выбрала иной подход к регулированию ИИ. Так, в марте 2023 г. местное правительство ненадолго запретило ChatGPT, ссылаясь на опа- сения по поводу того, как и сколько данных о пользователях собирает чат-бот. Потом техно- логию вновь разрешили использовать, а кроме того, правительство стало инвестировать деньги в устранение негативных последствий ее внед- рения. Конкретно – около 33 млн долларов были выделены на поддержку работников, которым грозит отставание в результате цифро- вой трансформации. Примерно треть этой суммы направлена на обучение работников, чьи рабочие места могут устареть в результате автоматизации процессов, которую позволяют ввести генеративные сети. Остальные средства направят на обучение цифровым навыкам без- работных и экономически неактивных граждан в надежде ускорить их выход на рынок труда. ОАЭ Далеко не в каждой стране на первом месте в государственной стратегии, касающейся ИИ, стоит его законодательное регулирование. Например, в Национальной стратегии искус- ственного интеллекта Объединенных Арабских Эмиратов амбициям страны в области регули- рования отведено всего несколько абзацев. В частности, Совет по искусственному интеллек- ту и блокчейну будет "рассматривать нацио- нальные подходы к таким вопросам, как управ- ление данными, этика и кибербезопасность", а также наблюдать и интегрировать лучшие мировые практики в области ИИ. Остальная часть 46-страничного документа посвящена стимулированию развития искусственного интеллекта в ОАЭ путем привлечения талантли- вых специалистов в области ИИ и интеграции технологии в такие ключевые отрасли, как энер- гетика, туризм и здравоохранение. Эта страте- гия, как отмечается в резюме документа, соот- ветствует стремлению ОАЭ "к 2071 г. стать луч- шей страной в мире". Россия В России понятие искусственного интеллекта впервые законодательно закрепили в 2020 г. Закон № 123-ФЗ вводит экспериментальное регулирование ИИ в Москве на пять лет. Он предназначен для регулирования разработки и внедрения технологий искусственного интел- лекта и для возможного использования резуль- татов работы этих технологий. Согласно закону, искусственный интеллект – это комплекс техно- логических решений, позволяющих имитиро- вать когнитивные функции человека и получать результаты, сравнимые с результатами интел- лектуальной деятельности человека, при выпол- нении конкретных задач. Чего в законе нет, так это ответов на вопросы о том, что будет, если с ИИ что-то пойдет не так. О разработке допол- нительного закона, который, вероятно, закроет этот вопрос, стало известно летом 2023 г. Одна- ко конкретики пока мало: из публикаций в СМИ известно, что он точно коснется обезличивания данных, используемых ИИ-системами. США Большинство компаний, занимающихся мас- штабными ИИ-проектами, базируются в США, и в том числе поэтому вопросы регулирования искусственного интеллекта поднимаются мест- ными политиками уже давно. Впервые об этом на государственном уровне там задумались еще в 2016 г., а в 2019 г. в США появилась Комиссия по национальной безопасности по искусствен- ному интеллекту, которая занималась не только вопросами применения ИИ для обеспечения

RkJQdWJsaXNoZXIy Mzk4NzYw