Preview

Journal of Digital Technologies and Law

Расширенный поиск

Правовые механизмы распределения ответственности за вред, причиненный системами искусственного интеллекта

https://doi.org/10.21202/jdtl.2025.18

EDN: ruzmxp

Содержание

Перейти к:

Аннотация

Цель: формулировка предложений по формированию системы субсидиарной ответственности субъектов за вред, ставший результатом использования систем искусственного интеллекта.

Методы: исследование базируется на комплексной методологической основе, включающей применение абстрактно-логического метода для теоретического осмысления правовой природы искусственного интеллекта как объекта правового регулирования, метода сравнения для анализа подходов российского и европейского законодательства к регулированию деликтной ответственности, методов обобщения для систематизации существующих концепций распределения ответственности между субъектами права, а также корреляционного анализа для выявления взаимосвязей между типологией систем искусственного интеллекта и механизмами правовой ответственности за их функционирование.

Результаты: в ходе исследования обобщены и систематизированы современные теоретико-правовые представления и нормативные акты Европейского союза и Российской Федерации о вариантах распределения субсидиарной ответственности за неблагоприятные последствия работы искусственного интеллекта. Определены потенциальные субъекты ответственности и выявлены ключевые факторы, влияющие на распределение ответственности между ними. Разработана многомерная матрица распределения ответственности между субъектами, учитывающая влияние каждого из них на работу конкретной системы искусственного интеллекта и типологизацию самих систем с точки зрения рискориентированного подхода.

Научная новизна: в работе впервые предложена авторская концепция, сочетающая дифференциацию ролей субъектов с точки зрения их реального влияния на результаты работы искусственного интеллекта, дифференциацию самих систем искусственного интеллекта согласно рискориентированному подходу и соответствующую двум указанным классификациям систему правовых презумпций распределения ответственности. Новизна заключается в создании многомерной матрицы субсидиарной ответственности, которая позволяет учитывать множество факторов при определении субъекта ответственности в каждом конкретном случае причинения вреда системами искусственного интеллекта, что существенно отличается от существующих односторонних подходов к данной проблематике.

Практическая значимость: выводы и предложения исследования могут быть использованы для развития доктрины субсидиарной ответственности в области использования искусственного интеллекта, разработки и модификации норм права, посвященных регулированию искусственного интеллекта. Предложенная многомерная матрица распределения ответственности может служить теоретическим основанием для совершенствования судебной практики по делам о возмещении вреда, причиненного системами искусственного интеллекта, а также для создания эффективного баланса между стимулированием развития ИИ-технологий и обеспечением защиты прав и законных интересов физических и юридических лиц.

Для цитирования:


Казанцев Д.А. Правовые механизмы распределения ответственности за вред, причиненный системами искусственного интеллекта. Journal of Digital Technologies and Law. 2025;3(3):446-471. https://doi.org/10.21202/jdtl.2025.18. EDN: ruzmxp

For citation:


Kazantsev D.A. Legal Mechanisms for Distributing the Responsibility for the Harm Caused by Artificial Intelligence Systems. Journal of Digital Technologies and Law. 2025;3(3):446-471. https://doi.org/10.21202/jdtl.2025.18. EDN: ruzmxp

Введение

Все более широкое использование систем искусственного интеллекта как в повседневной жизни, так и в различных отраслях экономики и даже публичного управления делает нейросети и иные варианты так называемого слабого искусственного интеллекта не просто экспериментальным инструментом, но и фактором правовых отношений. Важной и одной из самых социально значимых граней этих отношений являются отношения деликтные – иными словами, обязательства, возникшие вследствие причинения вреда, вызванного использованием искусственного интеллекта. В более же широком дискурсе требуется решение вопроса о возложении и распределении ответственности за неблагоприятные последствия применения ИИ.

Роботизация производств и все более широкое использование технологий искусственного интеллекта в различных аспектах повседневной жизни переводит из теоретической в практическую плоскость вопрос о правовых последствиях причинения роботом вреда человеку. Отсутствие соответствующего регулирования создает правовой вакуум, который потенциально может создать ситуацию отсутствия ответственности за целую группу правонарушений.

Это, в свою очередь, с неизбежностью повлечет стремление физических и юридических лиц избегать, насколько это возможно, вовлечения в такие правоотношения, в которых потенциальное нарушение их прав и законных интересов не будет иметь никаких последствий. Проще говоря, неурегулированная правовая ответственность ИИ – это один из ключевых факторов депопуляризации повседневного использования цифровых технологий, а значит, и важное препятствие на пути их развития.

Уже сегодня этот вопрос перестал быть теоретико-правовым. Роботизация производств, выполнения работ и сферы услуг демонстрирует, к сожалению, вполне реальные примеры того, как непродуманное использование искусственного интеллекта наносит ущерб не только правам и законным интересам физических или юридических лиц, но и причиняет ущерб здоровью людей, а в отдельных случаях и вовсе приводит к смертельным исходам. Так, роботизация автотранспорта и сервисов доставки, медицинской диагностики и обработки персональных данных, оставаясь безусловным удобством и перспективным методом повышения качества жизни, обратной своей стороной имеет издержки в виде значимых рисков для жизни и здоровья граждан.

На более высоком уровне обобщения справедливо отнесение систем ИИ к угрозам для базовых гражданских прав. «К очевидным опасностям можно отнести: покушения на неприкосновенность частной жизни путем скрытого наблюдения (практике Европейского суда по правам человека уже известен ряд дел о скрытом наблюдении за служащими на рабочем месте); зависимость осуществления конституционных прав от воли других субъектов (например, провайдеров); ненадлежащее обеспечение конфиденциальности при обработке уже оцифрованной персональной информации; появление дополнительных расходов на приобретение технических средств и устройств (например, обязательное использование электронных дневников школьников в многодетных семьях); привязка к электронному адресу для получения служебной или банковской информации и т. д.» (Ковлер, 2022).

Работа в цифровой среде в целом и последствия действий ИИ в частности не могут и не должны оставаться вне правового регулирования. Недопустимость использования искусственного интеллекта в целях умышленного причинения вреда гражданам и организациям, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий искусственного интеллекта отнесены к основополагающим принципам развития ИИ как в Российской Федерации1, так и за ее пределами.

При самом первом приближении практика подталкивает к выбору одного из нескольких простых решений относительно будущего правового регулирования ИИ.

Первое и, казалось бы, самое очевидное решение – это полный запрет на использование любых систем искусственного интеллекта как потенциально опасных для человека. Сегодня эта опасность уже не сугубо умозрительная. Она доказана на практике. А значит, необходимо устранить из обихода любые подобные системы, дабы исключить эту угрозу для жизни и здоровья людей.

Однако уже сегодня искусственный интеллект является не только фактором риска, но и фактором повышения качества жизни людей и удобства их работы. В информационную эпоху введение запрета на инструмент обработки информации столь же деструктивно, как введение, например, запрета на использование автомобилей или самолетов по мотивам того, что с прискорбной регулярностью происходят дорожные инциденты и авиакатастрофы.

Сам по себе запрет онтологически является отнюдь не ординарным, а крайним, исключительным инструментом правового регулирования. Проще говоря, если можно в области права обойтись без запрета, то лучше обходиться без него. Введение любого запрета есть не что иное, как констатация кризиса общественных отношений в той или иной сфере и несовершенство общественно-правового регулирования.

Это не означает, что запреты совершенно не нужны и каждый из них деструктивен. Важно лишь использовать этот инструмент правового регулирования с большой осторожностью и лишь там, где его отсутствие способно породить объективно большие риски, чем его наличие.

В качестве примера можно привести дифференциацию риск-факторов использования ИИ в документе, известном как Закон ЕС об искусственном интеллекте2. По этому закону однозначному запрету подлежат лишь системы ИИ, предназначенные, например, для биометрической идентификации и категоризации людей, выстраивания систем социальных рейтингов и другие подобные технологии, прямо направленные на разрушение базовых прав и свобод человека и гражданина. Все остальные системы ИИ подлежат лишь более или менее жесткому регулированию: от максимальных требований к системам, потенциально способным создать угрозу для жизни и здоровья человека, до отсутствия каких бы то ни было требований к использованию ИИ в компьютерных играх.

Вторая крайность в решении проблемы правового регулирования неблагоприятных последствий применения ИИ – это приравнивание технологий искусственного интеллекта к обстоятельствам непреодолимой силы или наделение их сходным статусом. На первый взгляд, это уместно в силу того, что логика поиска и обработки информации даже слабым ИИ не является прозрачной для человека, а значит, и решения такой системы для человека далеко не всегда прогнозируемы.

Однако отсутствие полного понимания не означает отсутствие возможности влияния. Продолжая аналогию с тем же автомобилем, можно вспомнить, что в XXI в. большинство автолюбителей имеет довольно смутные представления о нюансах устройства своего авто. И тем не менее каждый из них несет прямую ответственность за последствия управления этим механизмом. Точно так же не выходит за пределы человека воздействие на системы ИИ вплоть до корректировки их алгоритмов, с тем чтобы свести к минимуму риск ошибочных решений по результатам обработки больших данных.

На практике любая аналогия между работой ИИ и обстоятельством непреодолимой силы будет означать фактическое отсутствие правовой ответственности за последствия его работы. Исключение же самой такой ответственности очевидным образом формирует пространство для злоупотреблений вплоть до использования технологий искусственного интеллекта для совершения преступлений, которые в этом случае остались бы безнаказанными.

И коль скоро ни полный запрет, ни полная безнаказанность ИИ не представляются разумными и возможными, то третий подход подталкивает нас к тому, чтобы, принимая наличие объективных фактов и возможностей причинения вреда системами искусственного интеллекта, включить ИИ в круг субъектов правовой ответственности – по крайней мере, в тех случаях, когда человек объективно не участвовал и не мог участвовать в принятии искусственным интеллектом ошибочного вредоносного решения. И вот этот подход заслуживает более пристального рассмотрения непосредственно с правовой точки зрения.

1. Робот и человек: основы деликтоспособности

Право, по крайней мере в нынешнем его виде, антропоцентрично. Это регуляторная система, созданная людьми для отношений в обществе людей. Развитие права является отражением общественного развития, и эволюция права подчинена эволюции общества и положения индивида в обществе. Даже тогда, когда мы имеем дело с правовой фикцией, возложение ответственности, например, на юридическое лицо на практике означает возникновение неблагоприятных последствий для конкретных физических лиц: руководителя, сотрудников, собственников и т. д.

Разумеется, правовое регулирование охватывает и корпорации, и роботов, и иные программно-аппаратные комплексы, и механизмы. Не ограничиваясь лишь артефактами человеческой цивилизации, правовое регулирование в определенных ситуациях может затрагивать даже животных и растения (в частности, их селекцию, оборот и обращение с ними). Но нечеловеческий субъект не выступает в качестве субъекта правовых конструкций не в силу своей «ограниченности» или «ущербности» в сравнении с человеком, а лишь в силу того, что эти конструкции многие тысячелетия возникали и развивались именно как регулятор сугубо человеческого поведения.

Так, классическим набором элементов правовой ответственности принято называть наличие субъекта, субъективной стороны, объекта и объективной стороны. И если наличие объекта и объективной стороны не устраняется фактом причинения вреда в результате действий ИИ, то наличие двух оставшихся факторов представляется дискуссионным.

Резолюция Европейского парламента от 16 февраля 2017 г. с рекомендациями Комиссии по гражданскому праву «Правила робототехники», указывая на возрастающую актуальность вопроса об ответственности за вред, причиненный искусственным интеллектом, отмечает вместе с тем, что действующее законодательство не позволяет привлечь искусственный интеллект даже в случае, когда наносят ущерб третьим лицам3. И хотя в данной Резолюции перспективы правовой субъектности искусственного интеллекта описаны с подчеркнутой осторожностью, но в проекте от 31 мая 2016 г. были сформулированы несколько подходов к закреплению «правовой природы искусственного интеллекта: рассматривать как физических лиц, как юридические лица, как животных или объекты либо создать новую категорию с ее собственными особенностями и последствиями в отношении присвоения прав и обязанностей, включая ответственность за ущерб»4.

Таким образом, на нормативном уровне был поставлен вопрос о том, что использование ИИ может создать высокий или даже недопустимый риск для жизни, здоровья, прав и законных интересов людей – однако этот вопрос не получил своего разрешения. Причем для реализации означенного риска вовсе не обязательны злонамеренные действия ИИ. В этом контексте особую актуальность приобретает определение «правовой природы искусственного интеллекта: рассматривать как физических лиц, как юридические лица, как животных или объекты либо создать новую категорию, с ее собственными особенностями и последствиями в отношении присвоения прав и обязанностей, включая ответственность за ущерб»5.

На сегодня преждевременными представляются разговоры о присвоении искусственному интеллекту статуса правового субъекта. Сложно не согласиться с мнением о том, что «применение цифровых технологий с использованием искусственного интеллекта на современном уровне его развития не означает появления новых общественных отношений, качественно отличающихся от существующих», а «искусственный интеллект не выступает в качестве цифрового субъекта права в отношениях по обороту цифровых прав в информационной системе оператора. Последний, используя в предпринимательстве цифровые технологии, применяет в бизнес-моделях элементы искусственного интеллекта, которые не порождают цифровых правоотношений» (Андреев, 2021). Иными словами, искусственный интеллект, являясь инструментом для реализации традиционных хозяйственных отношений на новом технологическом уровне, не порождает на сегодняшний день принципиально новых правовых отношений.

Этот вывод верен и с онтологической точки зрения. Навыки обработки больших объемов информации, в том числе с использованием технологий самообучения, не создают мышление и сознание, подобное человеческому. Довольно точное и все еще актуальное определение ИИ дано в упомянутом выше Указе Президента: «Комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека»6. На сегодня наиболее реалистичной выглядит концепция искусственного интеллекта как программно-аппаратного комплекса, не имеющего с человеческим разумом ничего общего в плане сущности мышления, однако способного при этом решать в совокупности аналогичные по сложности либо более сложные задачи (Bokovnya et al., 2020).

И коль скоро сходство не означает тождество, то присвоение роботу антропоморфных черт не означает обретения им тождества с человеком. А значит, с точки зрения и достигнутого уровня развития техники, и актуального уровня развития права на сегодняшний день «очевидна несостоятельность предложения признания за искусственным интеллектом правосубъектности, аналогичной правосубъектности физического лица, и, несмотря на использование принципов работы человеческого мозга для построения системы искусственного интеллекта, принципы правового регулирования статуса физического лица не могут быть применены к искусственному интеллекту» (Дурнева, 2019).

Несмотря на стремительное развитие нейросетей и технологий роботизации, все еще остается актуальным вывод о том, что «придание роботам (системе искусственного интеллекта) статуса субъекта права не повлечет за собой в обозримом будущем каких-то явных негативных последствий. В то же время не видны и преимущества такого решения по сравнению с рассмотрением роботов (систем искусственного интеллекта) в качестве квазисубъектов права. Исходя из философского принципа Оккама не умножать сущности без крайней на то необходимости, мы полагаем, что введение в правовую сферу такого принципиально нового субъекта права, как робот (система искусственного интеллекта), является преждевременным (хотя не исключено, что такая необходимость появится)» (Чаннов, 2022). Присвоение ИИ прав человека стало бы лишь сугубо некорректной экстраполяцией свойств человека на ИИ (Duffy & Hopkins, 2013), не учитывающей специфику ни человека, ни искусственного интеллекта.

Максимально упрощая, можно утверждать: на сегодня преждевременным представляется присвоение ИИ статуса правового субъекта. Да, во многих аспектах ИИ качественно превосходит человека как в скорости обработки информации, так и в самом объеме обрабатываемой информации. Но присвоение роботу антропоморфных черт не означает обретения им тождества с человеком. Точно так же присвоение ИИ правового статуса человека стало бы лишь экстраполяцией свойств человека на ИИ, не учитывающей специфику ни человека, ни искусственного интеллекта.

Сам феномен деликтоспособности неразрывно связан с понятием правосубъектности. Проще говоря, лишь субъект права может нести правовую ответственность. Сторона, субъектом права не являющаяся, ответственности в правовом смысле не несет. Однако в ситуации, когда причиной возникновения деликтных обязательств стали действия ИИ, т. е. субъекта, не относящегося к субъектам права, все равно необходимо наличие механизма правовой ответственности. Очевидно, что даже в случае с вредом, причиненным искусственным интеллектом, субъектом правовой ответственности будет именно субъект права. Или несколько таких субъектов.

При этом важно подчеркнуть, что правовой принцип соразмерности требует возложения ответственности именно на тех лиц, действиями которых прямо или косвенно и было обусловлено возникновение деликтных обязательств.

2. Профилактика нарушений в области использования ИИ

Теоретико-правовое осмысление деликтных последствий использования искусственного интеллекта не стоит ограничивать лишь работой с уже свершившимися фактами и распределением ответственности за них. Представляется, что такой подход в самой сути своей недостаточен. Не только возможно, но и прямо необходимо включить в круг сперва теоретико-правового обоснования, а затем и прикладного регулирования механизмы профилактики, а точнее – минимизации риска причинения вреда искусственным интеллектом.

Для этого в первую очередь необходимо теоретически обосновать, практически апробировать (а где это возможно и необходимо – еще и нормативно закрепить) корректное соотнесение ролей человека и искусственного интеллекта при реализации бизнес-процессов в хозяйственных отношениях. Правовое регулирование, в свою очередь, должно быть адекватно этим основополагающим подходам. И, прежде всего, следует признать недопустимым возложение на ИИ принятия ключевых решений по вопросам, затрагивающим в каких бы то ни было отношениях права и законные интересы физических и юридических лиц. Эти решения должны оставаться исключительной прерогативой человека везде, где это возможно.

Дело здесь не только и не столько в упомянутом выше принципе антропоцентризма права. Точнее, это обстоятельство обусловлено тем, что в круг потенциальных последствий деятельности робота уже не в качестве субъекта, а в качестве объекта вовлекается человек. Например, в случае принятия решения об аварийном отключении мощностей электростанции или об аварийном сбросе воды из водохранилища даже самый продвинутый алгоритм в отсутствие сложных дополнительных настроек будет оценивать сугубо экономические последствия каждого из возможных решений. И вполне может оказаться, что внезапное затопление близлежащего поселка искусственный интеллект сочтет в данной ситуации экономически целесообразным. По другим мотивам, но с той же роковой логикой может быть принято решение о наезде на пешехода или отключении систем жизнеобеспечения. И постулирование на уровне базовых алгоритмов ИИ принципов «робот должен защищать человека» и «робот не может навредить человеку» не способно нивелировать данный риск: слишком часто линейная логика, оторванная от этики, будет подталкивать к тому, чтобы защитить одного человека путем нанесения вреда другому человеку.

Это возвращает нас к понятию субъективной стороны правонарушения. Высококлассная команда разработчиков может создать алгоритм, позволяющий до известной степени включить в механизм принятия решения роботом интересы человека в качестве наиболее высокого приоритета. Но даже она не сможет придать роботу морально-этические свойства человека, имитировать нравственные переживания и психоэмоциональное отношение к совершаемому действию. Уже существующие системы ИИ обладают такими специфическими характеристиками, как непрозрачность принятия решений для человека, автономность, самообучаемость и непредсказуемость в отдельных случаях с точки зрения человеческой логики (Llorca, 2023).

Не нужно забывать: методы мышления человека и методы обработки информации условным искусственным интеллектом качественным образом отличны. Это два разных типа обработки информации, каждый из которых обладает своими достоинствами и недостатками. И даже при наличии схожих целей неуместно переносить на один тип свойства другого. За пределами данной статьи остается дискуссия о возможности наличия у искусственного интеллекта сознания как такового. Но едва ли можно ожидать от искусственного интеллекта сознания именно человеческого типа.

В этих условиях по общему правилу лишь человек – при этом обладающий и надлежащей экспертизой, и развитыми этическими установками, и именно антропоцентричной аксиологией – может принимать в пределах предоставленных ему полномочий решения, затрагивающие ключевые права и законные интересы другого человека. И потому сегодня искусственный интеллект по общему правилу может быть лишь источником данных для эксперта, а не заменой этого эксперта. Более того, не теряет своей актуальности правило: использование ИИ тем целесообразнее, чем меньше потенциальная ошибка ИИ сможет создать угроз для жизни и здоровья физических лиц.

При соблюдении данного правила не требуются принципиально новые правовые конструкции для регулирования ответственности за вред, ставший следствием работы ИИ. Вопросы распределения деликтных обязательств вполне могут решаться с помощью существующих правовых механизмов. При этом высокая автономия ИИ в вопросах принятия решения, пусть даже не ставящая его в число субъектов права, требует продуманного адаптивного учета специфики ИИ при адаптации существующих норм и принципов права. «Традиционные подходы к распределению юридической ответственности требуют существенной адаптации, что предполагает более детальную, многоуровневую структуру, поддерживающую четкие цепочки подотчетности» (Tianran, 2024).

И одно из самых серьезных направлений адаптации – это регулирование вопросов ответственности в тех ситуациях, когда невозможно сохранить за человеком принятие отдельных решений, поскольку автономия ИИ составляет саму суть автоматизации данного процесса.

В качестве понятного примера можно привести роботизированное такси, автопилот морского судна или робота для микрохирургических операций. Технологическая сложность выполняемых ими задач прямо обуславливает экономическую и прикладную целесообразность устранения человека от контроля за этими операциями. Проще говоря, если за рулем находится водитель, то робот в таком такси уже не нужен – а если такси управляет робот, то наличие водителя нивелирует экономические преимущества от роботизации такси. Именно для подобных ситуаций актуальным является формирование новых правовых механизмов регулирования ответственности за действия искусственного интеллекта.

До известной степени в данной ситуации можно предложить аналогию между ответственностью за действие ИИ и ответственностью за действия младенца: и тот и другой не обладают деликтоспособностью, однако имеют высокую автономию и ограниченную предсказуемость своих действий. Историк права и вовсе может предложить обращение к старым, давно забытым правовым моделям. Речь идет, например, о модели взаимоотношений pater famalias и раба в римском праве. При таком подходе «правовое положение ИИ становится тождественным или близким тому, которое было у римских антропоморфных коллективных организаций, либо еще более редуцированным – раба, домочадцев, детей, в том числе filius in potestate tua est» (Афанасьев, 2022). Однако простой принцип «за все действия раба правовую ответственность несет хозяин» невозможно механистически перенести на модель распределения ответственности за последствия действий робота.

Это отнюдь не означает того, что современный искусственный интеллект более сложен в психоэмоциональном аспекте, чем, например, древнеримский гладиатор. Наоборот, при исследовании первопричин того или иного решения искусственного интеллекта мы можем с большей легкостью выделить по меньшей мере несколько ключевых субъектов, причем каждый из этих субъектов будет являться физическим лицом, юридическим лицом либо группой лиц. «Отношения с использованием искусственного интеллекта – это всегда отношения между субъектами права или по поводу объектов права. В любом случае это отношения, которые на том или ином этапе инициированы, запрограммированы человеком – субъектом права с той или иной степенью ответственности (в том числе в рамках деятельности юридических лиц). Волеизъявление человека на те или иные действия искусственного интеллекта может быть выражено в разной степени: от действий ИИ, находящихся под полным контролем воли человека, до автономных действий ИИ, опять же допускаемых и осознаваемых в своих возможных пределах и последствиях человеком (группой лиц)» (Шахназаров, 2022).

Эта возможность, в свою очередь, может и должна стать основой для выстраивания модели субсидиарной ответственности (Лаптев, 2019) за действия искусственного интеллекта между теми правовыми субъектами, которые могли прямо или косвенно повлиять на такие действия.

3. Многомерная матрица субсидиарной ответственности за работу ИИ

Вопрос о деликтных обязательствах, возникающих в результате деятельности ИИ, уже не первый год затрагивается в теоретико-правовых работах (Bertolini, 2013). Специальные исследования, как правило, содержат выводы о субсидиарной ответственности или о матрице ответственности, на основании которой вопрос о возложении неблагоприятных правовых последствий решается индивидуально в каждом конкретном случае с учетом комплекса фактов (Bokovnya et al., 2020). Речь идет о таких субъектах, как владелец ИИ, пользователь ИИ, разработчик ИИ, а также третьи лица. Именно на балансе прав, обязанностей и ответственности данных субъектов и представляется целесообразным базировать матрицу распределения правовой ответственности за последствия действий ИИ.

Разумеется, мы не можем применить уголовное или административное наказание к самому ИИ. Любая мера ответственности, примененная к ИИ, в любом случае повлечет за собой неблагоприятные последствия для его пользователя: например, административный запрет на работу ИИ в течение определенного срока будет означать издержки не для самого ИИ, а лишь для того субъекта, который использовал данную систему ИИ в своей хозяйственной деятельности. «При рассмотрении ответственности ИИ целесообразно говорить в первую очередь о деликтной ответственности, т. е. меры ответственности должны быть установлены как реакция на вред, который ИИ может причинить или причиняет. При этом речь не всегда идет о линейной ответственности, т. е. ответственности одного лица за вред, который он причинил, а скорее о совмещенной ответственности, т. е. когда, помимо причинителя вреда, к ответственности могут быть призваны и другие субъекты» (Philipp, 2023).

Теоретико-правовое решение вопроса о распределении ответственности за действия ИИ, повлекшие причинение ущерба физическим и/или юридическим лицам, необходимо в качестве базы для регулирования практических аспектов последствий наступления такой ответственности. «Фундаментальной проблемой в сфере ответственности ИИ является фрагментация ответственности. В отличие от традиционных инструментов, которые функционируют под непосредственным контролем человека, системы ИИ работают автономно на основе алгоритмического принятия решений. В случаях, когда наступает ответственность за качество продукции, производители, как правило, отвечают за конструктивные недостатки, но что происходит, когда система искусственного интеллекта со временем “учится” вредоносным действиям? Некоторые правоведы выступают за строгую ответственность производителей, как в фармацевтической промышленности, в то время как другие предлагают модели совместной ответственности, включающие разработчиков программного обеспечения, операторов и даже конечных пользователей»7.

Для решения этого вопроса в первую очередь необходимо определить круг правовых субъектов, обладающих деликтоспособностью и имеющих возможность реально возместить вред, причиненный ошибками ИИ. Например, по давно высказанному мнению Р. Линеса и Ф. Люсиверо, ответственность за вред, причиненный ИИ, несет лицо, его программировавшее, либо лицо, ответственное за его эксплуатацию, в установленных законом рамках (Leenes & Lucivero 2014). При этом принцип правовой соразмерности требует наличия причинно-следственной связи между действием (бездействием) таких лиц и наступлением означенного вреда. С этой точки зрения можно выделить следующие группы потенциальных субъектов ответственности:

  1. Разработчик ИИ.
  2. Владелец ИИ.
  3. Пользователь ИИ.
  4. Третьи лица.

В этом перечне обозначены именно группы, в рамках каждой из которых можно выделить отдельные подгруппы. Так, например, на практике можно отделить заказчиков ИИ от его непосредственных разработчиков, в кругу третьих лиц можно выделить тех, кто оказывал непосредственное влияние на алгоритмы ИИ, от тех, кто разместил в открытом доступе недостоверные сведения, ставшие причиной ошибочных решений ИИ, и т. д. Но в любом случае если дополнить приведенный выше обобщенный перечень двумя формами вины, то можно получить двухмерную матрицу субсидиарной ответственности за последствия решений ИИ (табл. 1).

Таблица 1. Базовая матрица виновной ответственности за работу ИИ

Субъект ответственности

Умысел

Неосторожность

Разработчик

   

Владелец

   

Пользователь

   

Третьи лица

   

Регулирующие органы

   

Именно на результатах выяснения наличия и характера вины в каждом конкретном случае и будет складываться субсидиарная ответственность. Такая матрица позволит на практике учитывать множество факторов: например, соблюдались ли пользователем при эксплуатации ИИ инструкции разработчиков, присутствовали ли в данной конкретной модели ИИ какие-либо ограничения и были ли они доведены до сведения пользователя, прошла ли система ИИ надлежащее обучение (а если нет, то нанесен ли ущерб по вине разработчика или поставщика данных для обучения), в какой степени владелец мог контролировать работу ИИ, а в какой – действия пользователя и т. д.

Так, например, по результатам проведения экспертизы (а при необходимости и следственных действий) может быть доказано то, что неблагоприятные последствия возникли в силу фундаментальных недочетов разработки. «Когда система искусственного интеллекта приобретается встроенной в другие товары (например, в автомобиль), то представляется маловероятным, что подобные договорные исключения (например, между производителем автомобиля и поставщиком программного обеспечения искусственного интеллекта) могут быть успешно переложены на покупателя автомобиля. В то же время интерес представляет идея о возможности установления границ ответственности разработчиков за дефекты создания выпущенных в оборот систем искусственного интеллекта» (Харитонова и др., 2022)8.

Тезис о границах ответственности подводит нас к вопросу о правовых презумпциях в сфере регулирования ответственности за действия ИИ. Например, можно распределить такие презумпции ответственности между перечисленными выше субъектами: «Основная ответственность лежит на развертывающих организациях и системных операторах, которые осуществляют непосредственный контроль за применением; они должны обеспечить надлежащее функционирование, мониторинг производительности и применение необходимых мер предосторожности, а также тщательное ведение документации. Во вторую очередь, ответственность лежит на разработчиках и производителях систем; она предполагает соблюдение технических стандартов, стандартов безопасности и требований к документации, включая прозрачность процессов принятия решений и аудита. В-третьих, ответственность лежит на надзорных и регулирующих органах, которые должны устанавливать стандарты, проводить регулярные аудиты и поддерживать эффективные механизмы соблюдения мер. Эта многоуровневая структура обеспечивает всестороннюю ответственность при сохранении четких цепочек подотчетности на протяжении всего жизненного цикла системы» (Tianran, 2024).

Дополнив нашу двухмерную матрицу такими презумпциями, мы получаем следующую логику распределения ответственности за действия ИИ (табл. 2).

Таблица 2. Вариант приоритизации ответственности за работу ИИ

Очередность привлечения к ответственности

Вина

Умысел

Неосторожность

1. Владелец

   

2. Разработчик

   

3. Заказчик

   

4. Пользователь

   

5. Регулирующие и контролирующие органы

   

6. Поставщик информации

   

7. Третьи лица

   

При этом «высокая степень автономности ИИ не может служить основанием для уменьшения ответственности разработчиков, производителей. Если разработчик ИИ обладает большей степенью контроля над функционированием системы с ИИ, чем производитель, собственник или пользователь данной системы, это должно увеличивать ответственность разработчика за причинение вреда. Данный принцип может быть представлен в более универсальной интерпретации: степень контроля над функционированием системы ИИ пропорциональна ответственности за причинение вреда»9.

Без использования презумпций вопрос о распределении ответственности за действия ИИ и в самом деле будет сложно решить в целом ряде случаев. Однако и столь линейное распределение презумпций представляется известным упрощением. Практикующему юристу очевидно, что этой матрицей невозможно охватить все возможные комбинации ответственности, потенциально возникающие при использовании ИИ. За ее пределами остается невиновное возмещение ущерба (как договорное, так и внедоговорное). За ее пределами остается и конструкция источника повышенной опасности.

Да, по общему правилу ч. 2 ст. 1064 Гражданского кодекса РФ лицо, причинившее вред, освобождается от его возмещения, если докажет, что вред причинен не по его вине. Но из этого правила существуют исключения. Одно из них установлено ст. 1079 Гражданского кодекса: лица, владеющие источником повышенной опасности, обязаны возместить причиненный вред вне зависимости от наличия или отсутствия вины в том случае, если вред был нанесен именно этим источником повышенной опасности. Верховный суд РФ поясняет, что источником повышенной опасности следует считать «любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека»10.

Интуитивно под это определение можно подвести и ИИ, ведь он и автономен в своих решениях, и не до конца подконтролен человеку, и способен причинить вред физическим и юридическим лицам. «Источник повышенной опасности может быть признан через следующие критерии: “деятельность”, “действие” и “вредоносность”. Обозначив необходимые для идентификации источника повышенной опасности критерии, необходимо выяснить, подходит ли ИИ под указанные требования. Категории “деятельности” и “действия”, создающих опасность причинения вреда, подтверждаются технически сложным устройством самой технологии ИИ, а также автономностью выбора стратегии выполнения поставленной задачи. Критерий “вредоносности” раскрывается через сферы, в которых может быть использована технология ИИ. Именно так эксплуатация искусственного интеллекта в медицине при определении диагноза или же в беспилотном управлении транспортным средством предполагает возможность причинения вреда окружающим субъектам. Таким образом, можно прийти к выводу о возможности признания искусственного интеллекта источником повышенной опасности»11.

И в самом деле, «многие системы ИИ (беспилотные транспортные средства, дроны, роботы-хирурги и т. д.) могут квалифицироваться как источники повышенной опасности, а их применение — как деятельность, несущая повышенный риск для окружающих» (Ижаев, Кутейников 2024). Этот тезис является отправной точкой для конкретизации верного, но абстрактного тезиса об индивидуализации решения о распределении субсидиарной ответственности в каждом конкретном случае с учетом комплекса факторов. «Фиксация в законе новых систем ИИ потребует рассмотрения вопроса о признании их источником повышенной опасности» (Антонов, 2020), и владелец искусственного интеллекта в таком контексте предстает владельцем источника повышенной опасности. По умолчанию, ответственность за неблагоприятные последствия деятельности искусственного интеллекта несет его владелец – но лишь до тех пор, пока не доказана вина иных лиц.

Подводя промежуточный итог изложенным выше тезисам и отчасти дополняя их, можно констатировать, что «по критерию возможности применения имеющегося нормативного правового регулирования к случаям вреда, причиненного системами ИИ, возможны следующие подходы:

– Ответственность за вред, причиненный источником повышенной опасности.

– Ответственность за причинение вреда вследствие недостатков (дефектов) продукта.

– Безвиновная ответственность за вред, причиненный чрезвычайно опасной деятельностью.

– Применение по аналогии норм об ответственности за вред, причиненный животными. В частности, между роботами и животными можно обнаружить некоторое сходство. Например, и роботы, и животные могут действовать независимо от своих владельцев, воспринимать окружающую обстановку и осуществлять действия в зависимости от нее.

– Применение по аналогии норм об ответственности за вред, причиненный работниками. Ответственность работодателя за вред, причиненный работником третьим лицам, связана с действиями работника, повлекшими причинение вреда, которые он совершил в пределах выполнения своих рабочих обязанностей.

– Применение по аналогии норм об ответственности за вред, причиненный детьми»12.

Все эти подходы по-своему верны, однако каждый из них в полной мере может быть применен лишь к отдельным случаям использования ИИ. Ведь и концепция источника повышенной опасности сегодня уже не способна в полной мере охватить практику использования ИИ. «Очевидно, что существуют различные виды систем ИИ: от робота-пылесоса до автономных дронов, используемых в вооружениях. Большое количество примитивных систем ИИ не будет обладать характеристиками, способными нанести какой-либо существенный вред человеку. В связи с этим использование по умолчанию ст. 1079 ГК РФ и приравнивание всех систем ИИ к источникам повышенной опасности представляется спорным. Отчасти можно согласиться с целесообразностью детализации критериев источников повышенной опасности применительно к системам ИИ. При этом необходимо учитывать, что на практике для определения источника повышенной опасности в конкретной ситуации может использоваться так называемый деятельностный подход. Его суть отражена в постановлении Пленума Верховного Суда РФ № 138 от 26.01.2010. В документе указано, что по смыслу ст. 1079 ГК РФ источником повышенной опасности следует признавать любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствами. Такая интерпретация дает возможность суду определять в каждом конкретном случае, является ли та или иная система ИИ источником повышенной опасности» (Ижаев, Кутейников, 2024).

Итак, не всякая система ИИ является источником повышенной опасности. А значит, и применение кратко означенных выше презумпций носит субъектно-объектный характер – проще говоря, зависит не только от статуса субъекта правовой ответственности, но и от характера самой системы ИИ как того объекта, за результаты работы которого и предполагается ответственность.

И здесь мы возвращаемся к рискориентированной классификации Закона ЕС об искусственном интеллекте, упомянутой в самом начале статьи. Для реализации рискориентированного подхода этот Закон ЕС выделяет четыре группы систем ИИ, различающихся в зависимости от цели:

  1. Категория недопустимого риска: биометрическая идентификация и категоризация людей, система социального рейтинга и т. п.
  2. Категория высокого риска: использование ИИ с потенциальной возможностью создания прямой угрозы для жизни и здоровья человека – например, на транспорте или в медицине.
  3. Категория ограниченного риска: использование чат-ботов, использование нейросетей для создания информационного контента.
  4. Категория минимального риска: видеоигры, вспомогательные программы, рекомендательные системы.

Сама классификация, безусловно, заслуживает дальнейшего развития. Так, в рамках группы высокорисковых систем стоит обособить системы с риском для жизни и здоровья, с одной стороны, и системы с риском для имущественных интересов физических и юридических лиц – с другой. Среди систем ограниченного риска можно выделить системы общего назначения и специализированные. Но в любом случае при распределении субсидиарной ответственности необходимо учитывать не только то воздействие, которое оказывают деликтосопособные субъекты права на работу ИИ, но и характер конкретной системы ИИ.

Так, например, «в случаях, когда вред причинен высокорисковой системой ИИ, целесообразно использовать строгую ответственность разработчиков. Связано это с тем, что такие системы ИИ по своей природе способны оказать значительное негативное воздействие на права и свободы человека, в связи с чем последний должен обладать повышенными гарантиями защиты» (Ижаев, Кутейников, 2024). Реализация этого подхода смещает дискурс с концепции источника повышенной опасности в сторону установления собственной системы презумпций для каждой группы систем ИИ, обособленных согласно рискориентированному принципу.

В результате у нас появляется многомерная матрица, учитывающая по меньшей мере следующие параметры:

  1. Роль деликтоспособного правового субъекта в работе ИИ.
  2. Форма вины и наличие оснований для невиновной ответственности.
  3. Категория системы ИИ с точки зрения рискориентированного подхода.

В такой многомерной матрице мы уже не ограничены категоричными утверждениями о том, что «за ИИ отвечает в первую очередь владелец» или «за ИИ отвечает разработчик, а всех остальных привлекаем к ответственности лишь после того, как будет доказано отсутствие вины разработчика».

Да, подобная многомерная матрица сложна. Но лишь она позволяет не только реализовать баланс прав и обязанностей, но и соблюсти баланс хозяйственных интересов. Ведь если полное отсутствие правового регулирования ответственности может стать тормозом для развития отрасли ИИ, то и избыточное непроработанное регулирование вполне способно создать аналогичные проблемы. Проще говоря, если презюмировать ответственность владельца за действия ИИ, то никто не захочет покупать такие системы. А если по умолчанию привлекать к ответственности разработчиков, то мало кто захочет их разрабатывать.

Сложно не согласиться с тем, что «в свете возможного возложения ответственности на разработчиков необходимо хотя бы на начальных этапах предусмотреть сбалансированную систему иммунитетов для них, добавив обязательное страхование ответственности, а также регистрацию систем ИИ. В случае признания ИИ субъектом возможно установление режима совмещенной ответственности, когда субсидиарную ответственность могут нести и создатель ИИ, и его владелец или иной субъект»13. Представляется, что именно в рамках предложенной выше многомерной матрицы такая субсидиарная ответственность может быть реализована наиболее эффективно.

При всей своей сложности именно многомерная матрица позволит не только включить в круг правового регулирования все случаи использования ИИ, но и учесть вариативность, изменчивость и специфичность комбинаций различных алгоритмов. Например, владелец ИИ становится первым кандидатом на субсидиарную ответственность при наступлении вреда вследствие использования «системы ИИ общего назначения, которые характеризуются возможностью решения широкого спектра задач. По общему правилу их следует определять как системы ИИ низкого риска. Однако если в результате «тонкой настройки» они используются в продуктах, обладающих высоким риском, то такие системы также должны признаваться высокорисковыми с соответствующими последствиями при разрешении споров, вытекающих из причинения вреда» (Philipp, 2023). И для высокорисковых систем презумпция ответственности может быть возложена в первую очередь на заказчиков и разработчиков.

Выводы

Право как феномен и правовые институты как его проявления развиваются не в вакууме сугубо теоретических построений, а лишь в контексте развивающейся практики хозяйственных отношений. В этом смысле теоретическое осмысление технических и экономических реалий следует за появлением этих реалий. Но без теоретического осмысления невозможно ни системное осознание, ни профессиональное регулирование новых отношений.

Сегодня в силу уровня развития техники и вовлечения инновационных технологий в хозяйственные отношения вопрос ответственности ИИ имеет уже не только и не столько теоретико-правовое, сколько практическое значение. Роботы уже сегодня могут не только принести пользу, но и причинить вред и физическим, и юридическим лицам. Более того, «использование алгоритмических систем таит в себе особые угрозы для личных и политических прав – для права на неприкосновенность частной жизни, свободы выражения мнений, а также для права на участие в управлении делами государства посредством демократических процедур. Кроме того, в связи с тем, что алгоритмы и основанные на них технологии искусственного интеллекта построены на обработке поступающих из внешней среды сведений, под особой защитой в алгоритмическом обществе должны находиться права субъектов персональных данных» (Пибаев, Симонова, 2020).

Отсутствие специального регулирования создает правовой вакуум, который потенциально означает отсутствие ответственности за целую группу правонарушений. Это, в свою очередь, один из ключевых факторов депопуляризации повседневного использования цифровых технологий, а значит, и важное препятствие на пути их развития. Однако и непродуманное регулирование может стать точно таким же, если не более существенным препятствием на пути повседневного использования ИИ в бытовых и производственных вопросах.

Первым, но важным шагом в сторону практической регуляторики должна стать теоретико-правовая проработка вопросов ответственности за последствия применения ИИ. «До сих пор отсутствует однозначное понимание того, каким образом следует разрешать проблемы возложения внедоговорной гражданско-правовой ответственности за вред, причиненный системами ИИ. С одной стороны, регулирование должно стимулировать развитие индустрии ИИ и не предусматривать чрезмерно обременительные положения для разработчиков и профессиональных эксплуатантов, а с другой – необходимо обеспечить высокий уровень защиты прав человека и общества, поскольку последние в таких спорах будут заведомо слабой стороной. Таким образом, очевидна актуальность поиска оптимальных и адекватных подходов к правовому регулированию юридической ответственности» (Ижаев, Кутейников, 2024).

Сегодня вопрос об ответственности за последствия действий ИИ может быть решен положительно, поскольку умышленная или, по меньшей мере, неосторожная вина «посредников искусственного интеллекта (разработчиков и пользователей) в случае нанесения вреда системой искусственного интеллекта может быть вполне вероятной, юридически и экспертно доказуемой» (Ивлиев, Егорова, 2022). А значит, уже сегодня представляется реализуемым на практике и принцип «разграничения ответственности организаций-разработчиков и пользователей технологий искусственного интеллекта исходя из характера и степени причиненного вреда»14.

Однако возможность положительного решения вопроса не означает простоты его решения. Прежде всего, необходимо опираться на следующие фундаментальные посылки:

  1. И текущий уровень развития права, и текущий уровень развития технологий искусственного интеллекта не позволяют рассматривать робота в качестве субъекта правовых отношений или субъекта правовой ответственности.
  2. Невозможность признания деликтоспособности за искусственным интеллектом не означает необходимости признания за ним статуса форс-мажора или невозможности ответственности за последствия действий искусственного интеллекта.
  3. Ответственность за последствия действий искусственного интеллекта распределяется между его создателями, его владельцами, его пользователями и иными лицами, вовлеченными в использование робота в той степени, которая влияет на результаты работы искусственного интеллекта.
  4. Комбинация ответственности, в том числе субсидиарной, в каждом конкретном случае зависит как от типа самой системы ИИ, так и от того, чьи действия повлияли на принятие ИИ решения, следствием которого явилось возникновение деликтных обязательств.

Например, «пользователь или владелец может быть привлечен к ответственности, если нарушена инструкция применения искусственного интеллекта, в особенности это касается ситуаций, когда до пользователя доводились какие-либо специфические требования по эксплуатации системы. Если мы говорим о пользователе или владельце, то ближе всего к данному виду отношений – модель ответственности за вред, причиненный источником повышенной опасности. Поставщик данных несет ответственность, если вред возник в период, когда система все еще обучалась, либо в случае предоставления некачественных данных. Также следует учитывать, что система искусственного интеллекта может быть снабжена открытым исходным кодом. В таком случае в литературе возникает вопрос о привлечении к ответственности программистов. Также в некоторых случаях, если вред причинен по глубинным проблемам системы искусственного интеллекта, появляется вопрос о привлечении к ответственности дизайнера или изготовителя системы искусственного интеллекта. Поскольку системы искусственного интеллекта часто работают в упомянутой парадигме “черного ящика”, встает вопрос о невозможности в некоторых случаях вообще установить лицо, по чьей воле или по неосторожности причинен вред» (Харитонова и др., 2022)15.

В этих условиях положительное решение вопроса о субсидиарной ответственности невозможно без применения правовых конструкций, близких (но не обязательно тождественных) концепции источника повышенной опасности. При этом представляется, что такая конструкция, применимая в сфере ответственности за решения ИИ, не должна ограничиваться лишь возможностью невиновного возложения ответственности.

Несколько упрощая, можно предложить систему презумпций ответственности. В рамках этой системы по нисходящей исследуется вопрос о виновности каждого из деликтоспособных правовых субъектов. И лишь в том случае, когда вину установить объективно невозможно, применяется невиновная ответственность.

При этом сама иерархия презумпций зависит от категории ИИ с точки зрения рискориентированного подхода. В рамках такого подхода можно выделить, по крайней мере, следующие категории ИИ:

  1. Высокорисковые ИИ, способные создать угрозу для жизни и здоровья человека.
  2. Высокорисковые ИИ, способные создать угрозу для имущества физических и юридических лиц.
  3. Высокорисковые ИИ, способные создать угрозу разглашения персональных данных и иной информации ограниченного доступа.
  4. Среднерисковые ИИ, способные создать угрозу для надлежащего совершения хозяйственных операций.
  5. Среднерисковые ИИ, способные создать угрозу для производственных процессов и функционирования инфраструктурных объектов.
  6. Среднерисковые ИИ общего назначения.
  7. Низкорисковые ИИ.

Для каждой из этих категорий выстраивается индивидуальная система презумпций ответственности следующих субъектов:

  1. Владелец ИИ.
  2. Заказчик ИИ.
  3. Разработчик ИИ.
  4. Пользователь ИИ.
  5. Регулирующие и контролирующие органы.
  6. Поставщики информации для ИИ.
  7. Третьи лица.

Схематично предложенную многомерную матрицу ответственности за вред, причиненный действиями ИИ, можно представить в виде следующей таблицы, в которой для каждой ячейки в означенной очередности сперва исследуется вопрос о наличии вины в форме умысла либо неосторожности, а затем – вопрос о возможности невиновного возложения ответственности (табл. 3).

Таблица 3. Многомерная матрица ответственности за работу ИИ

Категория системы ИИ

Субъекты ответственности

Владелец

Заказчик

Разработчик

Пользователь

Регулирующие органы

Поставщик информации

Третьи лица

Высокорисковые ИИ, способные создать угрозу для жизни и здоровья

3

1

2

6

4

5

7

Высокорисковые ИИ, способные создать угрозу для имущества

3

1

2

4

5

6

7

Высокорисковые ИИ, способные создать угрозу для информации ограниченного доступа

4

1

2

3

6

5

7

Среднерисковые ИИ, способные создать угрозу для хозяйственных операций

1

4

5

2

3

6

7

Среднерисковые ИИ, способные создать угрозу для производственных процессов

1

3

4

2

6

5

7

Среднерисковые ИИ общего назначения

1

4

3

2

5

7

6

Низкорисковые ИИ

4

3

2

1

5

7

6

Таким образом, формальная невозможность возложить наказание или иную меру правовой ответственности на робота уже сегодня отнюдь не препятствует полноценному включению отношений с использованием технологий искусственного интеллекта в сферу правового регулирования, в том числе и в части правовых последствий причинения вреда. Эти инновационные технологии требуют существенного развития правового регулирования, однако сами по себе не создают ни новых правовых институтов, ни принципиально новых правовых конструкций. А значит, при должном подходе к сущностному осмыслению технологической компоненты такое регулирование может быть успешно реализовано в рамках существующей системы права.

1. Указ Президента России № 490 от 10.10.2019 (в ред. Указа Президента Российской Федерации № 124 от 15.02.2024). (2024). Гарант. https://clck.ru/3NXX4N

2. European Parliament legislative resolution of 13 March 2024 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act). EUR-Lex. https://clck.ru/3NXX6n

3. European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). (2018). Official Journal of the European Union, 252–257. https://clck.ru/3NXXAJ

4. Draft report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). (2016, May 31). Committee on Legal Affairs. https://clck.ru/3NXXCu

5. Nevejans, N. (2016). European Civil Law Rules in Robotics: Study. European Union. https://clck.ru/3NXXFs

6. Указ Президента России № 490 от 10.10.2019 (в редакции Указа Президента Российской Федерации от 15.02.2024 № 124). (2024). Гарант. https://clck.ru/3NXXHJ

7. Upadhyay, Sh. (2025, March 6). Navigating Liability in Autonomous Robots: Legal and Ethical Challenges in Manufacturing and Military Applications. https://clck.ru/3NXXNJ

8. Наумов, В. Б., Чеховская, С. А., Брагинец, А. Ю., Майоров, А. В. (2021). Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения: доклад НИУ ВШЭ. Москва.

9. Наумов, В. Б., Чеховская, С. А., Брагинец, А. Ю., Майоров, А. В. (2021). Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения: доклад НИУ ВШЭ. Москва.

10. О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина: постановление Пленума Верховного Суда РФ № 1 от 26.01.2010, П. 18.

11. Позднякова, М. (2025, 3 апреля). Признание за искусственным интеллектом источника повышенной опасности: реалии и перспективы. Деловой профиль. https://clck.ru/3NXXbo

12. Наумов, В. Б., Чеховская, С. А., Брагинец, А. Ю., Майоров, А. В. (2021). Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения: доклад НИУ ВШЭ. Москва.

13. Наумов, В. Б., Чеховская, С. А., Брагинец, А. Ю., Майоров, А. В. (2021). Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения: доклад НИУ ВШЭ. Москва.

14. Указ Президента России № 490 от 10.10.2019 (в редакции Указа Президента Российской Федерации от 15.02.2024 № 124). (2024). Гарант. https://clck.ru/3NXXig

15. Наумов, В. Б., Чеховская, С. А., Брагинец, А. Ю., Майоров, А. В. (2021). Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения: доклад НИУ ВШЭ. Москва.

Список литературы

1. Андреев, В. К. (2021). Приобретение и осуществление прав юридического лица с использованием искусственного интеллекта. Предпринимательское право, 4, 11–17. EDN: https://elibrary.ru/nnesjs. DOI: https://doi.org/10.18572/1999-4788-2021-4-11-17

2. Антонов, А. А. (2020). Искусственный интеллект как источник повышенной опасности. Юрист, 7, 69–74. EDN: https://elibrary.ru/dwhttx. DOI: https://doi.org/10.18572/1812-3929-2020-7-69-74

3. Афанасьев, С. Ф. (2022). К проблеме материальной и процессуальной правосубъектности искусственного интеллекта. Вестник гражданского процесса, 3, 12–31. EDN: https://elibrary.ru/fjaogm. DOI: https://doi.org/10.24031/2226-0781-2022-12-3-12-31

4. Дурнева, П. Н. (2019). Искусственный интеллект: анализ с точки зрения классической теории правосубъектности. Гражданское право, 5, 30–35. EDN: https://elibrary.ru/nckitd. DOI: https://doi.org/10.18572/2070-2140-2019-5-30-33

5. Ивлиев, Г. П., Егорова, М. А. (2022). Юридическая проблематика правового статуса искусственного интеллекта и продуктов, созданных системами искусственного интеллекта. Журнал российского права, 6, 32–46. EDN: https://elibrary.ru/anagtu. DOI: https://doi.org/10.12737/jrl.2022.060

6. Ижаев, О. А., Кутейников, Д. Л. (2024). Системы искусственного интеллекта и внедоговорная гражданско-правовая ответственность: риск-ориентированный подход. Lex russica, 77(6), 23–34. EDN: https://elibrary.ru/xvabso. DOI: https://doi.org/10.17803/1729-5920.2024.211.6.023-034

7. Ковлер, А. И. (2022). Антропология прав человека в цифровую эпоху (опыт сравнительного анализа). Журнал российского права, 12, 5–29. EDN: https://elibrary.ru/drklnh. DOI: https://doi.org/10.12737/jrl.2022.125

8. Лаптев, В. А. (2019). Понятие искусственного интеллекта и юридическая ответственность за его работу. Право. Журнал Высшей школы экономики, 2, 79–102. EDN: https://elibrary.ru/gqatho. DOI: https://doi.org/10.17-323/2072-8166.2019.2.79.102

9. Пибаев, И. А., Симонова, С. В. (2020). Алгоритмы в механизме реализации конституционных прав и свобод: вызовы цифровой эпохи. Сравнительное конституционное обозрение, 6, 31–50. EDN: https://elibrary.ru/zmmnic. DOI: https://doi.org/10.21128/1812-7126-2020-6-31-50

10. Харитонова, Ю. С., Савина, В. С., Паньини, Ф. (2022). Гражданско-правовая ответственность при разработке и применении систем искусственного интеллекта и робототехники: основные подходы. Вестник Пермского университета. Юридические науки, 58, 683–708. EDN: https://elibrary.ru/ppvmzr. DOI: https://doi.org/10.17072/1995-4190-2021-58-683-708

11. Чаннов, С. Е. (2022). Робот (система искусственного интеллекта) как субъект (квазисубъект) права. Актуальные проблемы российского права, 12, 94–109. EDN: https://elibrary.ru/memsif. DOI: https://doi.org/10.17803/1994-1471.2022.145.12.094-109

12. Шахназаров, Б. А. (2022). Правовое регулирование отношений с использованием искусственного интеллекта. Актуальные проблемы российского права, 9, 63–72. EDN: https://elibrary.ru/yownjo. DOI: https://doi.org/10.17803/1994-1471.2022.142.9.063-072

13. Bertolini, A. (2013). Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules. Law, Innovation and Technology, 5. https://doi.org/10.5235/17579961.5.2.214

14. Bokovnya, A. Y. et al. (2020). Legal Approaches to Artificial Intelligence Concept and Essence Definition. Revista San Gregorio, 41, 115–121. https://doi.org/10.36097/rsan.v1i41.1489

15. Duffy, S. H., & Hopkins, J. P. (2013). Sit, Stay, Drive: The Future of Autonomous Car Liability. SMU Science & Technology Law Review, 16.

16. Leenes, R., & Lucivero, F. (2014). Laws on Robots, Laws by Robots, Laws in Robots: Regulating Robot Behaviour by Design. Law, Innovation and Technology, 6(2), 194–222.

17. Llorca, D. F. (2023). Liability Regimes in the Age of AI: a Use-Case Driven Analysis of the Burden of Proof. Journal of Artificial Intelligence Research, 76, 613–644. https://doi.org/10.48550/arXiv.2211.01817

18. Philipp, H. (2023). The European AI liability directives — Critique of a half-hearted approach and lessons for the future. Computer Law & Security Review, 51, 1–42. https://doi.org/10.1016/j.clsr.2023.105871

19. Tianran, L. (2024). Research on Legal Responsibility Attribution for Autonomous Systems: An AI Governance Perspective. Science of Law Journal, 3(7), 166–174. https://doi.org/10.23977/law.2024.030722


Об авторе

Д. А. Казанцев
Торгово-промышленная палата Российской Федерации
Россия

Казанцев Дмитрий Александровичкандидат юридических наук, член Совета по развитию закупок, 

109012, г. Москва, ул. Ильинка, 6/1c1.

РИНЦ Author ID: 1149755


Конфликт интересов:

Автор сообщает об отсутствии конфликта интересов.



  • разработана авторская многомерная матрица субсидиарной ответственности, учитывающая одновременно роль субъекта в работе искусственного интеллекта, форму вины и категорию системы искусственного интеллекта с точки зрения рискориентированного подхода;
  • предложена система правовых презумпций распределения ответственности, дифференцированная для различных категорий систем искусственного интеллекта – от высокорисковых до низкорисковых;
  • обоснована неприменимость концепции полной безответственности или статуса форс-мажора для систем искусственного интеллекта при одновременной невозможности признания за ними правосубъектности;
  • определены семь основных категорий потенциальных субъектов ответственности за вред, причиненный искусственным интеллектом: владелец, заказчик, разработчик, пользователь, регулирующие органы, поставщики информации и третьи лица.

Рецензия

Для цитирования:


Казанцев Д.А. Правовые механизмы распределения ответственности за вред, причиненный системами искусственного интеллекта. Journal of Digital Technologies and Law. 2025;3(3):446-471. https://doi.org/10.21202/jdtl.2025.18. EDN: ruzmxp

For citation:


Kazantsev D.A. Legal Mechanisms for Distributing the Responsibility for the Harm Caused by Artificial Intelligence Systems. Journal of Digital Technologies and Law. 2025;3(3):446-471. https://doi.org/10.21202/jdtl.2025.18. EDN: ruzmxp

Просмотров: 224


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2949-2483 (Online)