Журнал "Системы Безопасности" № 4‘2024
Ц И Ф Р О В А Я Т Р А Н С Ф О Р М А Ц И Я , И И , И Н Т Е Р Н Е Т В Е Щ Е Й 118 физических или юридических лиц, от имени которых используется компьютер. Ввиду отсут- ствия судебной практики эту норму косвенно можно связать непосредственно с действиями ИИ. Исходя из вышесказанного, на вопрос о том, вправе ли ИИ быть признан автором, следует ответить: нет, на данный момент. Рос- сийское законодательство, к сожалению, не имеет специальных норм, регулирующих дея- тельность ИИ, поэтому вопрос "Кого считать автором произведения, созданного ИИ?" оста- ется открытым. На данный момент в россий- ском законодательстве имеется очевидный пробел, дающий возможность создания про- изведения без автора, а значит, созданное ИИ произведение будет считаться общественным достоянием. Автор – это физическое лицо, то есть субъект гражданского права, поэтому в данном случае появляется прямая зависи- мость от того, следует ли ИИ признать субъ- ектом правоотношений. Нейросети больше не инструмент? Вопрос о том, какой правовой статус следует распространять на ИИ, довольно актуален, и по нему в науке имеется огромное множество точек зрения. Первоочередно следует отметить, что на данный момент имеется государство с подданным в виде андроида, обладающего ИИ. Тем самым создан прецедент, благодаря кото- рому можно говорить о том, что на ИИ, как и на человека, распространяется правовой статус физического лица. Этим государством является Саудовская Аравия, а подданным – София (человекоподобный робот). На мой взгляд, решение Саудовской Аравии весьма поспешно, вряд ли рационально распространять правовой статус физического лица на объект, явно не обладающий психоэмоциональными свойства- ми, присущими человеку. Все же интеллект и сознание не схожие понятия. Сознание присуще всем людям, под ним понимается совокупность электрохимических реакций в клетках головно- го мозга, выражающихся в переживании орга- низмом событий внешнего мира и последую- щей реакции на эти события. Короче говоря, сознание позволяет испытывать людям субъек- тивные ощущения боли, любви, ненависти, счастья и всех прочих чувств. Интеллект – это способность использовать знания для воздей- ствия на окружающую среду. В этой связи необходимо отметить отсутствие сознания у ИИ, а также способности чувствовать и что-либо желать. Поэтому не целесообразно уравнивать в правовом статусе человека и ИИ. Ведь в таком случае получается, что мы создаем фикцию: люди и программы будут совершать примерно одинаковые действия, желая достигнуть опре- деленного результата, будут нести одинаковую ответственность за свои действия. Получается, что ИИ наравне с людьми получит и основопо- лагающие права: право на жизнь, право на лич- ную неприкосновенность и т.д. Но не следует ли нам придерживаться презумпции бессознатель- ности ИИ? Ввиду того что у ИИ отсутствуют субъективные переживания личности, он будет сильно выделяться на фоне человека, поскольку будет явно превосходить его по многим пара- метрам. Да и вряд ли ИИ способен в ближай- шем будущем самостоятельно осмыслить фразу "Сogito ergo sum". Актуальный статус ИИ Представляется, что ИИ должен располагать особым правовым статусом. Так, некоторые исследователи считают, что к ИИ применима аналогия с юридическими лицами. Действи- тельно, в таком случае ИИ будет иметь все признаки юридического лица, за исключением организационного единства. Но часть юристов отмечает, что в связи с этим, скорее всего, воз- никнет двойственный статус ИИ, поскольку он сможет быть как объектом, так и субъектом гражданского права. С точки зрения этой позиции встает еще вопрос и о праве собст- венности на вещи: на каком праве ИИ будет обладать вещами? Будет ли это ограниченное вещное право? Ответить на данные вопросы в данный момент не представляется возмож- ным. Л.И. Сафаргалеев (один из авторов "E-commerce и взаимосвязанные области (правовое регулирование): сборник статей") утверждает, что к ИИ применимо правило, используемое еще в римском праве – servi res sunt (рабы – вещи), по его мнению, ИИ не может быть самостоятельным субъектом права, но вполне способен приобретать права и обязанности для своего хозяина. Все выше- названные позиции имеют место быть, но, по моему мнению, не лишены недостатков, так как неминуемо встает вопрос: а каков будет правовой статус ИИ после смерти его владель- ца? Следуя реалиям российского гражданско- го законодательства, получается, что для при- обретения права собственности на ИИ нам необходимо будет ждать пять лет, то есть по факту в течении этого срока будет существо- вать "ИИ-нелегал", который имеет разум, совершает действия, но не приобретает ни для кого прав и обязанностей. Что делать? Конеч- но, в таком случае мы можем поступать с ИИ как с кошками, собаками и иными животными в Древнем Египте, то есть усыплять их вместе с почившими хозяевами. Но насколько это рационально? Верно, по-моему мнению, отметил в свое время Дж. Дьюи (автор "The Historic Background of Corporate Legal Persona- lity", Yale Law Journal): "Мы часто обсуждаем проблемы с точки зрения старых идей, тогда как решение проблемы связано с избавлением от старых идей и их заменой на понятия, более соответствующие современному состоя- нию идей и знаний". Интересна для рассмот- рения вопроса о правовом статусе ИИ резолю- ция Европарламента от 16 февраля 2017 г. (далее – резолюция). В резолюции приводятся рекомендации для европейской комиссии относительно норм гражданского права о робототехнике. В тексте данного документа правовой статус ИИ является специфическим, ИИ становится своеобразным "электронным лицом". В резолюции особо подчеркивается, что ИИ призван дополнить способности чело- века, а не заменить его. Указывается, что ИИ не может своими действиями или бездей- ствиями причинять вред человеку или допу- стить возможность причинения вреда, ИИ должен повиноваться всем приказам челове- ка, то есть фактически закрепляются три зако- на робототехники, сформулированные писа- телем-фантастом Айзеком Азимовым в рас- сказе "Хоровод" в далеком 1942 г. Подход, составленный в резолюции, на мой взгляд, является наиболее целесообразным, и здесь сразу же возникает вопрос об ответственности ИИ. Представьте себе, что вы едете в автомо- биле, управляемом искусственным интеллек- том. Транспортное средство находится в вашей собственности, и неожиданно вы въезжаете в толпу прохожих. Несколько про- хожих получили легкие повреждения, вы испытали сильный эмоциональный стресс, у машины был поврежден бампер. Кто в данном случае будет возмещать убытки за причинен- ный вред здоровью, моральный вред, ущерб, нанесенный автомобилю? В соответствии с российским законодательством возмещать все убытки будет владелец источника повышен- ной опасности. Но ведь автомобилем управ- лял ИИ. Не будет ли это считаться непреодо- лимой силой? Мог ли владелец автомобиля вовремя осознать опасность для окружающих и взять управление на себя? Ввиду отсутствия судебной практики ответить на этот вопрос затруднительно, но ряд государств уже ввели нормы, регулирующие ответственность в слу- чае возникновения таких казусов. Стоит под- робнее остановиться на опыте ФРГ. Так, в Гер- мании в 2017 г. был принят Восьмой закон о внесении изменений в Закон о дорожном дви- жении от 16 июня 2017 г., которым фактиче- ски оформилась возможность использовать беспилотный транспорт. В законе устанавли- вается, что водитель может отвлекаться от происходящего на дороге, но он обязан взять управление на себя, если ИИ предлагает сде- лать ему это в значительной части или пол- ностью. Водитель также должен взять управ- ление на себя, если он осознает или должен осознавать, что дальнейшее управление авто- мобилем ИИ невозможно, например, когда водитель видит, что автомобиль под управле- нием ИИ направляется в толпу пешеходов и т.п. При этом в случае, если имело место причинение вреда человеку или имуществу по вине водителя, ответственность будет нести он, если вред был причинен из-за технической ошибки, то отвечать будет автопроизводитель. В Германии, на мой взгляд, подход к ответ- ственности кажется действительно достаточно качественным, поскольку не может и не дол- жен нести ответственность автомобилист, который не сумел взять управление автомоби- лем на себя в результате технической ошибки. Вопрос об ответственности также поднимается в резолюции Европарламента от 16 февраля 2017 г. В документе указывается, что ИИ не может нести ответственность сам по себе, поскольку его действия или бездействия зави- сят от оператора (владельца), то есть ИИ является своеобразным инструментом для достижения конкретной цели. Ввиду вышеска- занного устанавливается ответственность не только владельца ИИ, но и производителя, если какой-либо ущерб был причинен из-за технической ошибки. Однако в резолюции также говорится о том, что чем выше автоном- ность ИИ, тем меньше он расценивается как обычный инструмент. Это вызывает вопрос: может ли ИИ самостоятельно отвечать за свои действия или бездействия? На данный момент – нет, но стоит отметить, что по мере развития август – сентябрь 2024 www.secuteck.ru
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzk4NzYw