Журнал "Системы Безопасности" № 4‘2024

Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , И И , И Н Т Е Р Н Е Т В Е Щ Е Й 115 В о многих странах всерьез заговорили о регулировании искусственного интеллекта (ИИ). Почему этот вопрос так важен? Первое громкое высказывание в отношении ИИ-законов случилось в 2017 г., когда извест- ный техномагнат Илон Маск призвал к регули- рованию развития искусственного интеллекта. Выступая на встрече с губернаторами США, он заявил, что сам "не в восторге" от того, что пред- лагает ввести контроль над отраслью, в которой работает, но он считает, что риски полной бес- контрольности ИИ слишком велики. Свою логи- ку он объяснил так: обычно регулирование наступает после того, как случается череда нега- тивных событий, а законотворческий процесс занимает много времени. В случае с ИИ, по сло- вам Маска, у людей времени недостаточно. В том же году европейские законодатели высту- пили с предложением о регулировании искус- ственного интеллекта и робототехники. В ответ на это, а также на обращение Маска генераль- ный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится в своем зачаточном состоянии и регулировать его пока рано. Вместо попыток регулирования самой технологии несколько ученых предложили раз- работать общие нормы, включающие в себя требования к тестированию и прозрачности алгоритмов. Законы в отношении ИИ решили придумывать не просто так. Риски искусственного интеллекта Существует целый набор конкретных рисков, которые несет эта технология. Рассмотрим основные из них. Предвзятость Искусственный интеллект широко используется в системах распознавания лиц и голоса, в основном для контроля доступа, а также в различных скоринговых системах банковской и страховой сфер, в инструментах правоохра- нителей и т.д. Некоторые из этих систем имеют значительное влияние на бизнес и людей, но и они подвержены предвзятости и ошибкам, которые могут возникать из-за человеческого фактора. Кроме того, данные, используемые для обучения этих ИИ-систем, могут быть иска- жены. В последние годы не раз появлялись новости о том, как алгоритмы распознавания лиц, разработанные Microsoft, IBM Face++ и другими компаниями, демонстрировали "предубеждения" при определении пола людей. При гендерной атрибуции белых мужчин они оказывались точнее. Еще один пример предвзя- тости ИИ и вовсе побудил компанию Amazon прекратить использование электронного разума для найма сотрудников. Алгоритм предпочитал мужских кандидатов, так как был обучен на данных, полученных именно от мужчин. Про- блемы предвзятости могут возникать по разным причинам, но самая основная – несбалансиро- ванный выбор материала для обучения нейро- сетей. У явления даже появилось название: алгоритмическая несправедливость. И пока что не придумали способа, чтобы гарантировать, что очередной алгоритм будет выносить только справедливые суждения. Некачественное предоставление услуг Почти что философский вопрос: кто виноват в ДТП с участием автономных автомобилей – владелец машины или компания, которая ее разработала? владелец, компания или пеше- ход, нарушивший правила дорожного движе- ния? Автономные автомобили – самый очевид- ный повод для беспокойства в отношении ИИ, когда речь заходит о качестве предоставления услуг. Но не единственный. Кто несет ответ- ственность за ошибочные медицинские советы, сгенерированные некачественно обученной нейросетью, если в результате страдает здо- ровье человека? Сейчас создатели ИИ часто "умывают руки", ссылаясь на суть генеративных нейросетей. Предполагается, что они генери- руют именно контент: текст, картинку или видео, которые были бы максимально близки по контексту к запросу пользователя. Ответ таких сетей будет правдоподобным, но верным он окажется ровно настолько, насколько факти- чески верной была информация, на которой ИИ обучали. Размер наборов данных для обучения нейросетей огромный, и каких-либо общепри- нятых стандартов по наполнению таких баз дан- ных пока что нет. Приватность и сохранность корпоративной конфиденциальной информации Всякий раз, когда пользователь пишет промпт, чтобы решить какую-то свою практическую задачу, он сообщает искусственному интеллекту детали либо о своей частной жизни, либо о компании, для которой он при помощи ИИ делает эту работу. Отсутствие информации о том, что владельцы ИИ-сервиса делают с этими данными – удаляют ли их, сохраняют, анализируют, используют ли в дообучении ней- росетевой модели, вызывает беспокойство у защитников цифровых прав людей и служб информационной безопасности корпораций. Решения этой проблемы тоже пока нет, кроме очевидной цифровой гигиены: многие компа- нии в этом году ультимативно запретили своим сотрудникам сообщать ChatGPT и похожим тех- нологиям какую-либо корпоративную инфор- мацию. Авторское право Недавняя забастовка голливудских сценаристов стала яркой иллюстрацией этой угрозы. Сцена- ристы не согласились с тем, что кинокомпании использовали генеративные нейросети для соз- дания сценариев к фильмам. Претензии сцена- ристов едва ли назовешь несправедливыми: ведь для обучения нейросетей использовались в том числе тексты сценариев за авторством реальных профессионалов. И делалось это не всегда с разрешения авторов. В результате заба- стовки сценаристы добились ограничения использования ИИ в творческом процессе, например искусственный интеллект не может создавать или переписывать литературные материалы, а любые материалы, созданные ИИ, не будут считаться исходным материалом. При этом сценаристы могут использовать ИИ для написания текстов. Однако кроме сценаристов есть еще множество правообладателей в изоб- разительном искусстве, музыке, литературе и других творческих сферах, где ИИ может отбирать хлеб у создателей контента. Другими словами, поводы для беспокойства в отноше- нии ИИ не просто существуют в теории – они уже подтвердились реальными событиями. Вот почему правительства разных стран начали законодательно регулировать эту сферу. Существующие законы об ИИ По данным Стэнфордского университета, спе- циалисты которого ведут учет законотворческой деятельности в области ИИ, за период с 2016 по 2023 г. количество принятых ИИ-законов подскочило с одного законодательного акта в 2016 г. до 37 штук, принятых только за 2022-й. Вот как разные страны подходят к этому вопросу. Европейский союз В июне 2023 г. Европейский парламент прого- лосовал за принятие так называемого закона об ИИ. Он классифицирует ИИ по трем категориям риска: ограниченный, высокий и неприемле- мый. 1. Неприемлемыми считаются системы ИИ, представляющие угрозу для общества (в каче- стве примера Европейский парламент предла- гает "игрушки с голосовым управлением, кото- www.secuteck.ru август – сентябрь 2024 Петр Метёлкин Директор центра стратегического анализа департамента проектного управления ФГУП "ЗащитаИнфоТранс" Правовое регулирование искусственного интеллекта В предыдущей статье "Искусственный интеллект. Введение в тематику" (журнал "Системы безопасности" № 3/2024 г., стр. 113 ) мы разобрались с определением тер- мина "искусственный интеллект", рассмотрели примеры классификаций этого поня- тия и основные сферы его применения. Сегодня поговорим о правовом регулирова- нии ИИ

RkJQdWJsaXNoZXIy Mzk4NzYw