Preview

Journal of Digital Technologies and Law

Расширенный поиск

Подходы к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта: особенности и практическая применимость

https://doi.org/10.21202/jdtl.2023.17

EDN: lbwsxw

Содержание

Перейти к:

Аннотация

Цель: обзор сложившихся в науке подходов к регулированию отношений в сфере применения технологий искусственного интеллекта, выявление основных особенностей и ограничений применения рискориентированного и технологического подходов для определения направлений их дальнейшего развития.

Методы: методологическую основу исследования составляет совокупность методов научного познания, в том числе общенаучный диалектический и универсальные научные методы (анализ и синтез, сравнение, обобщение, структурно-функциональный, формально-логический).

Результаты: определено, что применение рискориентированного подхода предполагает построение конструктивных моделей управления рисками. Значимым вопросом для применения данного подхода является вопрос об основаниях отнесения технологий искусственного интеллекта к высокорисковым. При определении уровня риска применения технологии искусственного интеллекта необходимо применять следующие критерии: тип технологии искусственного интеллекта, сферу ее применения, а также уровень ее потенциальной опасности для окружающей среды, здоровья, других фундаментальных прав граждан.

В свою очередь, центральным вопросом для применения технологического подхода является вопрос о необходимости и пределах регулирования сферы разработки и применения технологий искусственного интеллекта. Во-первых, вмешательство в данную сферу не должно создавать препятствий для развития технологий и инноваций.

Во-вторых, естественная реакция регулятора в ответ на появление новых объектов и субъектов оборота – «синдром несовершенного закона». Вместе с тем ложное представление об отсутствии правового регулирования может дать обратный эффект – дублирование правовых норм. В целях решения проблемы дублирования законодательных требований следует прежде всего решить вопрос о том, необходимо ли регулировать технологии искусственного интеллекта или некоторые виды использования программного обеспечения.

Научная новизна: проведен обзор основных подходов к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта, выявлены возможности и ограничения их применения, предложены дальнейшие направления их развития.

Практическая значимость: основные положения и выводы исследования могут быть использованы для определения оптимальных подходов к регулированию сферы цифровых технологий, а также в целях совершенствования правового регулирования рассматриваемой области общественных отношений.

Для цитирования:


Ерахтина О.С. Подходы к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта: особенности и практическая применимость. Journal of Digital Technologies and Law. 2023;1(2):421–437. https://doi.org/10.21202/jdtl.2023.17. EDN: lbwsxw

For citation:


Erahtina O.S. Approaches to Regulating Relations in the Sphere of Developing and Using the Artificial Intelligence Technologies: Features and Practical Applicability. Journal of Digital Technologies and Law. 2023;1(2):421–437. https://doi.org/10.21202/jdtl.2023.17. EDN: lbwsxw

Введение

Активное развитие технологий и систем искусственного интеллекта порождает научные дискуссии о необходимости, пределах и задачах правового регулирования отношений в сфере IT. Учеными высказываются принципиально разные позиции: от утверждений о необходимости установления значительного количества обязательных требований, исполнение которых в большей степени возлагается на разработчика (Smuha, 2021), до предложений не осуществлять правовое вмешательство в сферу высоких технологий1, чтобы не препятствовать инновациям. В палитру позиций ученых входят также более умеренные взгляды: применение международных и национальных стандартов (Zielke, 2020); осуществление добровольной сертификации (Ellul et al., 2021); мягкое регулирование и саморегулирование (Erdélyi & Goldsmith, 2018); установление объяснимых (Hamon et al., 2022) и этических (Wagner, 2018) рамок.

Бельгийский исследователь Николя Пети предлагает так называемый регуляторный компромисс, достигаемый посредством соотношения угроз и возможностей, создаваемых введением правового регулирования2. Он приводит ряд примеров, когда регулирование создавало препятствия для технологического процесса3. Вместе с тем отмечает, что отсутствие регулирования также может помешать технологической эволюции. В частности, правовая неопределенность оказывает негативное влияние на инвестиции. По мнению Райана Кало, неопределенные правила ответственности могут служить препятствием для инвестиций в открытые рынки робототехники и направить поток капитала на узкую функциональность роботов, где производители могут лучше управлять рисками, оставляя открытую робототехнику недостаточно развитой (Calo, 2011).

Среди множества подходов к правовому регулированию отношений в сфере применения систем искусственного интеллекта выделяют подход, согласно которому определяется общий правовой режим, который должен предусматривать основные требования к обеспечению безопасности систем искусственного интеллекта. Данный режим будет распространяться на все подобные системы. Наряду с этим необходимо разработать детальные требования к разработке и применению искусственного интеллекта в конкретных сферах (Понкин, Редькина, 2018).

Высокая динамика развития технологий искусственного интеллекта, наличие множества регуляторных инициатив актуализируют значимость междисциплинарных исследований, нацеленных на выявление оптимальных подходов к регулированию рассматриваемой сферы общественных отношений.

В статье представлен комплексный анализ двух междисциплинарных подходов к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта – рискориентированного и технологического подходов, выявлены возможности и ограничения их применения, а также определены направления их дальнейшего развития.

  1. Рискориентированный подход

Одним из активно обсуждаемых в науке подходов к регулированию технологий искусственного интеллекта является рискориентированный подход (Михалева, Шубина, 2019; Gellert, 2021; Gonçalves, 2020). Идея применения данного подхода была анонсирована в резолюции Европарламента «Нормы гражданского права в робототехнике» в 2017 г.4 Через четыре года в проекте Регламента Европейского союза, устанавливающего согласованные правила в отношении искусственного интеллекта5, была предложена классификация систем искусственного интеллекта, основанная на оценке уровня риска их применения. В соответствии с данной классификацией системы искусственного интеллекта разделены на четыре группы:

1) системы искусственного интеллекта с неприемлемо высоким уровнем риска (прежде всего, системы искусственного интеллекта, применяемые в военном и оборонном секторах, а также системы для манипулирования поведением человека и системы для создания социальных рейтингов);

2) системы искусственного интеллекта с высоким уровнем риска6;

3) системы искусственного интеллекта с ограниченным риском7;

4) системы искусственного интеллекта с минимальным риском8.

Для оценки уровня риска применения системы искусственного интеллекта предполагается использование двух основных критериев: степень зависимости пользователей от решений, которые принимает система, и степень ее опасности для жизни и здоровья граждан и нарушения их основных прав.

В проекте Регламента ЕС указывается на необходимость установления запрета на производство и введение в гражданский оборот систем искусственного интеллекта, применение которых создает неприемлемо высокий уровень риска причинения вреда. В свою очередь к разработчикам, владельцам и пользователям высокорисковых систем искусственного интеллекта, как следует из проекта, должны предъявляться повышенные требования к обеспечению безопасности, ведению технической документации и предоставлению информации9. В целях соблюдения установленных требований могут быть использованы системы менеджмента качества. Для систем же с ограниченным и минимальным риском как минимум должна быть установлена обязанность информировать пользователей о том, что они взаимодействуют с искусственным интеллектом.

В целом подход ЕС заслуживает поддержки. Вместе с тем он нуждается в дальнейшем развитии.

Во-первых, необходимо учитывать, что рискориентированный подход – это система управления рисками, которая состоит из трех основных этапов. На первом этапе необходимо выявить, проанализировать и дифференцировать прогнозируемые риски. На втором – провести оценку уровня риска. На третьем этапе – определить способы управления рисками.

При всем многообразии подходов к классификации рисков (в идеале все эти подходы должны быть обязательно учтены) для целей данной статьи можно выделить:

– внутренние и внешние риски;

– системные и несистемные риски.

Внутренние риски возникают в отдельно взятой компании, их можно спрогнозировать, оценить и предотвратить своими силами. Внешние риски (изменение экономической и политической ситуации, стихийные бедствия, экологические катастрофы и др.) предотвратить силами отдельной компании нельзя.

Системные риски угрожают рынку в целом или отдельным сферам бизнеса. Спрогнозировать их возникновение и оценить последствия могут только эксперты. Их также нельзя предотвратить силами отдельной компании. В то время как несистемные (коммерческие) риски – это риски отдельной компании, которые она может и должна минимизировать самостоятельно.

Концепция рискориентированного подхода в понимании резолюции Европарламента «Нормы гражданского права в робототехнике» направлена на управление внутренними и несистемными рисками и оставляет без внимания внешние и системные риски, которые не могут быть вменены отдельным субъектам гражданского оборота. Выявление таких рисков – это одна из основных задач, которая должна быть решена на первом этапе.

На втором этапе определяется уровень риска (вероятность материализации риска и размер неблагоприятных последствий, которые могут вследствие этого наступить). На первый взгляд, проект решает данную задачу. Вместе с тем основания для отнесения системы искусственного интеллекта к одной из четырех групп требуют дальнейшего исследования. Как уже было указано, в проекте Регламента предлагается в качестве критерия оценки уровня риска использовать степень зависимости пользователей от решений, которые принимает искусственный интеллект, и степень опасности технологии для жизни и здоровья граждан и нарушения их основных прав. На наш взгляд, оценка вероятности материализации риска зависит и от ряда других факторов. Прежде всего, это характеристики технологии. Основными характеристиками искусственного интеллекта являются его автономность (способность самостоятельно, без вмешательства человека принимать решения) и обучаемость (способность овладевать новыми навыками и способностями). При этом в зависимости от сферы применения выделяют несколько уровней автономности технологий. Так, в Приложении № 10 к Транспортной стратегии РФ до 2030 г. с прогнозом на период до 2035 г.10 определено пять уровней автономности автомобильного транспорта, четыре уровня автономности железнодорожного транспорта и шесть уровней автономности водного и морского транспорта.

По критерию обучаемости искусственный интеллект может быть необучаемым, обучаемым и самообучаемым. Очевидно, что высокоавтономные и самообучаемые технологии должны быть отнесены к высокорисковым системам искусственного интеллекта, а необучаемые, имеющие первый или второй уровень автономности, – к системам с минимальным риском. Однако решение задачи определения уровня риска применения технологии искусственного интеллекта на основе ее характеристики не является настолько простой, насколько может показаться на первый взгляд. Прежде всего потому, что при оценке риска наряду с автономностью и способностью к обучению необходимо учитывать и другие характеристики искусственного интеллекта. В частности, функциональность (способность выполнять одну или более функций) технологии, оснащенность средствами контроля (Алексеев и др., 2020). Кроме того, очевидно, что возможны различные комбинации указанных характеристик. Так, например, технология искусственного интеллекта может быть высокоавтономной, обучаемой, выполняющей две функции и не содержать средства объективного контроля.

В научных работах также предлагается в качестве критерия оценки риска применения технологий искусственного интеллекта учитывать сферу их применения. По мнению группы исследователей из Мальтийского университета, правовое регулирование должно быть обязательным только для критических областей и сфер деятельности. При этом наряду со сферой применения систем искусственного интеллекта необходимо проводить оценку уровня риска тех видов деятельности, при осуществлении которых он используется (Ellul et al., 2021). С данным выводом следует согласиться. Так, в сфере здравоохранения технологии искусственного интеллекта могут применяться для помощи врачам при постановке диагноза, назначении лекарственных препаратов, проведении операций. Указанные виды деятельности могут быть отнесены к категории высокого риска. Наряду с этим технологии искусственного интеллекта используются для регистрации пациентов, обработки и анализа медицинских данных, автоматического оповещения медицинского персонала. Представляется, что данные виды деятельности могут быть отнесены к группе ограниченного риска.

Сферу транспорта большинство авторов также относят к высокорисковой сфере. Однако и здесь необходимо учитывать, для сопровождения каких видов деятельности применяется искусственный интеллект. Системы искусственного интеллекта используются для повышения безопасности и эффективности транспортного процесса, управления пассажиропотоками и грузовыми потоками. Вместе с тем технологии искусственного интеллекта также используются при оказании услуг по перевозке грузов и пассажиров. Если деятельность по управлению транспортной инфраструктурой относится к категории высокого риска, то деятельность по оказанию услуг может быть отнесена к категории ограниченного риска.

Во-вторых, в дальнейших исследованиях нуждается и вопрос о способах управления рисками. Проект уделяет основное внимание высокорисковым системам, оставляя, по сути, без внимания системы искусственного интеллекта с ограниченным риском. Вместе с тем специальное регулирование (основанное на рискориентированном подходе) должно в том числе осуществляться и применительно к системам искусственного интеллекта, относящимся к данной группе.

Полагаем, что способы управления рисками будут различаться в зависимости от вида риска (внутренний или внешний, системный или несистемный), а также уровня «рисковости» технологии искусственного интеллекта (высокий или средний).

Заслуживающей внимания является «Базовая модель определения критериев и категорий риска», утвержденная в 2017 г. проектным комитетом приоритетной программы «Реформа контрольной и надзорной деятельности»11. В данном документе раскрываются такие понятия, как «источники риска», «факторы риска», «профиль риска», определяются их виды, предлагаются способы ранжирования управляемых факторов и профилей риска (в целях определения наиболее значимых из них) и методика определения величины причиняемого вреда и возможной частоты возникновения потенциальных негативных последствий.

Несмотря на то, что рассматриваемая модель была принята в целях осуществления надзорными органами «умных проверок», чтобы сконцентрировать проверки на потенциально наиболее опасных объектах, предлагаемые в нем методики определения категорий и критериев риска могут быть использованы и при оценке уровня риска применения технологий искусственного интеллекта.

  1. Технологический подход

В последнее время в научной литературе все большее внимание уделяется технологическому подходу, в центре внимания которого находятся сама технология, ее сущностные и специфические характеристики. Рассматривая развитие технологии и инноваций в качестве основной задачи правового регулирования, представители данного подхода прежде всего задаются вопросом о необходимости и пределах регулирования сферы высоких технологий. Размышляя над этим вопросом, Дж. Эллул, приходит к выводу о том, что правовое регулирование должно быть сосредоточено не на искусственном интеллекте, а на программном обеспечении. По его мнению, в случае критического программного обеспечения, используемого, например, в самолете, не имеет значения, используется ли при этом искусственный интеллект или нет. Регулирование не должно касаться конкретной технологии искусственного интеллекта, оно должно быть более широким и осуществляться в отношении программного обеспечения в целом. В подтверждение данного вывода Эллул приводит еще один пример. Так, при использовании искусственного интеллекта в банковских или страховых системах, которые решают, следует ли предлагать конкретный кредит или полис, регулирование должно быть направлено на обеспечение того, чтобы клиенты не подвергались дискриминации. Данное требование должно применяться не только к системам на основе искусственного интеллекта. Вполне возможно запрограммировать систему для принятия решений, используя методы, не связанные с искусственным интеллектом (Ellul, 2022).

В целом поддерживая данную точку зрения, необходимо учитывать, что искусственный интеллект является собирательным понятием. В нормативно-правовых актах обоснованно проводится последовательное разграничение понятий «программа для ЭВМ»12, «искусственный интеллект»13 и «технологии искусственного интеллекта»14.

В примечании к п. 3.18 Национального стандарта «Системы искусственного интеллекта. Классификация систем искусственного интеллекта»15 указано на то, что искусственный интеллект как комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных, анализу и синтезу решений.

В научной литературе также поднимается вопрос о том, является ли искусственный интеллект единым объектом либо это собирательное понятие (Балашова, 2022). В качестве решения данного вопроса Л. Ю. Василевской предлагается включить искусственный интеллект в установленный в ст. 1240 ГК РФ перечень сложных объектов интеллектуальных прав. По мнению, Л. Ю. Василевской, структурными элементами искусственного интеллекта являются программный продукт (программа для ЭВМ); программное обеспечение (совокупность программ); искусственные нейронные сети (программы для ЭВМ); алгоритмы, программное обеспечение в качестве ноу-хау; техни­ческие решения как изобретения; базы данных (Василевская и др., 2021).

Таким образом, несмотря на то, что ядром технологии искусственного интеллекта является компьютерная программа, полностью отождествлять эти понятия было бы неверным. Именно отличительные особенности систем искусственного интеллекта, их специфические характеристики и наличие структурных элементов, являющихся самостоятельными объектами гражданских прав, обуславливают особенности правового регулирования отношений в сфере их разработки и применения.

Применение технологического подхода призвано также не допустить дублирования законодательных требований в тех сферах, где они уже введены. В этой связи Дж. Эллул ставит еще один исследовательский вопрос: должно ли, например, программное обеспечение для планирования задач в календаре регулироваться в большей степени, чем того требуют существующие законы (например, Закон о защите персональных данных или Закон о защите прав потребителей) (Ellul, 2022)? Полагаю, что на данный вопрос следует ответить утвердительно. Развитие технологий меняет процесс взаимодействия участников оборота, а соответственно, содержание их прав и обязанностей. Так, ст. 12 Закона о защите прав потребителей устанавливает обязанность изготовителя (исполнителя, продавца) своевременно предоставлять потребителю необходимую и достоверную информацию о товарах (работах, услугах). Вместе с тем в цифровом обществе информация, как правило, предоставляется в цифровой форме. Наряду с этим появляются программы, облегчающие поиск информации. А. И. Савельев справедливо отмечает, что в перспективе на потребителя, по-видимому, будет возложен риск неознакомления с информацией, размещенной предпринимателем в общедоступных источниках (Савельев, 2016). Более того, законодатель вводит в гражданский оборот новых субъектов. Так, в июле 2018 г. Законом «О внесении изменений в Закон Российской Федерации «О защите прав потребителей» 16 было установлено специальное регулирование деятельности владельца агрегатора информации о товарах (услугах).

Применение технологий искусственного интеллекта при обработке и хранении персональных данных связано с рисками их утечки или некорректной интерпретации. С 1995 г. Европейский парламент решает проблему управления такими рисками17. В 2016 г. в Регламенте ЕС «О защите физических лиц в отношении обработки персональных данных и о свободном перемещении таких данных» была предложена модель, призванная решить задачу усиления защиты персональных данных. Применение данной модели, по мнению разработчиков Регламента, должно способствовать формированию доверительного отношения к технологиям18.

И, наконец, последний вопрос, который исследует Эллул в своей статье: должно ли обязательное регулирование быть ориентировано непосредственно на технологии либо на определенную сферу или вид деятельности, при осуществлении которой они применяются (Ellul, 2022)? При ответе на данный вопрос необходимо учитывать, что риск ошибки имманентно присущ программному обеспечению любой сложности, вне зависимости от того, обладает оно элементами искусственного интеллекта или нет. По мере того, как программные системы в целом (которые не обязательно используют искусственный интеллект) «растут в сложности, взаимо­связанности и географическом распределении, мы будем все чаще сталкиваться с их нежелательным эмерджентным поведением» (Mogul, 2006). То есть взаимодействие технологии с внешней средой создает дополнительные сложности и риски. В целях минимизации таких рисков прежде всего необходимо вводить стандарты качества программного обеспечения19. Затем необходимо проводить оценку уровня риска тех видов деятельности, при осуществлении которых используется технология (об этом мы писали в первой части нашей статьи). Если определенная деятельность относится к группе высокого риска, должно быть установлено требование обязательного применения соответствующего стандарта. Таким образом, обязательное регулирование должно быть ориентировано не на технологию, а на вид деятельности, при осуществлении которой она применяется.

Рассматривая основные вопросы, которые поднимаются представителями технологического подхода, нельзя оставить без внимания исследование Рональда Линса. Исследователь из Нидерландов указывает на то, что выявить наличие пробелов в правовом регулировании отношений в сфере применения технологий – это достаточно сложная задача. На первом этапе необходимо определить сущностные и специфические характеристики технологии. Следует ли при решении этой задачи сосредоточиться на конкретном примере технологии, например на беспилотных автомобилях, или перейти к более широкой категории – беспилотным транспортным средствам?

По мнению Линса, ни один из этих подходов не является желательным. Фокусирование на определенной технологии может привести к тому, что регулятор сосредоточится на потенциально случайных особенностях технологии. Во втором случае из-за чрезмерного обобщения дискуссия может стать абстрактной, а потому бесполезной. Поэтому на данном этапе надо взять «социально-техническую призму» и наряду с определением специфических характеристик технологии выявить, чьи интересы должны быть важны и приоритетны (Leenes, 2019).

На втором этапе необходимо решить вопрос развития технологий, для чего выявить потенциальные риски и существующие проблемы, с которыми связано их применение. К сожалению, в научной литературе очень часто происходит смешение таких категорий, как «риск» и «проблема, в связи с чем сложно четко определить пределы и задачи правового регулирования рассматриваемой сферы общественных отношений. Представляется, что одним из основных рисков применения технологий искусственного интеллекта является возможность ее самопроизвольного отклонения от изначально заложенной в ней цели. Вследствие материализации данного риска возможно наступление определенных негативных последствий, таких как причинение вреда жизни, здоровью или имуществу пользователя, разглашение конфиденциальной информации.

На необходимость разграничения категорий «риск» и «проблема» указывают Е. А. Войниканис, Е. В. Семенова, Г. С. Тюляев. К рискам применения технологий искусственного интеллекта они, в частности, относят возможность деанонимизации данных, возможность дискриминации по признакам пола, расы, национальности, вероисповедания. В качестве проблем в работе выделяются вопросы о том, кто является правообладателем программы искусственного интеллекта, кто является ответственным за причинение вреда жизни или здоровью при эксплуатации искусственного интеллекта, и др. (Войниканис и др., 2018).

На третьем этапе следует определить формы и пределы государственного вмешательства в сферу технологий искусственного интеллекта. Способы управления рисками и решения проблем минимизации негативных последствий их материализации различны. Так, например, к способам управления рисками можно отнести ведение регистрационного журнала во время работы системы, а также обеспечение прозрачности процесса принятия решения, чтобы пользователи могли интерпретировать выходные данные. В отношении высокорисковых систем должна быть также введена система пострыночного мониторинга, в рамках которого будут осуществляться сбор и анализ данных о работе системы уже после ее вывода на рынок.

Если же, несмотря на принятие превентивных мер контроля, произошел сбой в работе системы, право должно предоставить способы справедливого распределения негативных последствий между ее разработчиком, пользователем и оператором.

Необходимо также учитывать, что способы воздействия на риски и проблемы различны и не всегда имеют правовую форму. При этом, по справедливому замечанию М. Шерера (Scherer, 2016), традиционные методы правового регулирования, такие как, например, лицензирование продукции, контроль за исследованиями, возможность применения деликтной ответственности, являются не вполне пригодными для управления рисками, связанными с применением систем искусственного интеллекта.

Выводы

Применение рискориентированного подхода предполагает построение конструктивных моделей управления рисками. Процесс управления рисками состоит из трех основных этапов. На первом этапе необходимо выявить и классифицировать все риски, с которыми сопряжено применение технологий искусственного интеллекта в определенной сфере. Концепция рискориентированного подхода, предлагаемая Европарламентом, концентрируется на внутренних и несистемных рисках. Соответственно, в целях развития данного подхода необходимо провести исследование по выявлению внешних и системных рисков. На втором этапе необходимо провести оценку уровня риска применения определенной технологии искусственного интеллекта. При проведении оценки необходимо использовать ряд критериев. Среди них – сущностные и специфические характеристики технологии, сфера и вид деятельности, при осуществлении которой применяется данная технология. На третьем этапе должны быть определены способы управления рисками, которые в свою очередь дифференцируются в зависимости от уровня рисковости определенной технологии. Как видим, основная цель применения рискориентированного подхода состоит в определении способов управления рисками, с которыми сопряжено применение технологий искусственного интеллекта.

В центре внимания технологического подхода находится вопрос о необходимости и пределах регулирования сферы высоких технологий. К основным этапам применения технологического подхода относят:

– определение сущностных и специфических характеристик технологий;

– выявление потенциальных рисков и уже существующих проблем их применения;

– определение форм и пределов государственного вмешательства в сферу технологий искусственного интеллекта.

Именно специфические характеристики технологий искусственного интеллекта, такие как автономность и самообучаемость, обуславливают особенности правового регулирования отношений в сфере их разработки и применения. При этом обязательное регулирование должно быть ориентировано не на технологию, а на вид деятельности, при осуществлении которой она применяется.

Проведенное исследование позволяет также сделать вывод о том, что универсальным подходом к регулированию отношений в сфере разработки и применения технологий является технологический подход. Несмотря на то, что данный подход нуждается в дальнейшем развитии, уже сейчас он может послужить основой для формирования стратегии правотворческой деятельности. В свою очередь, рискориентированный подход является одним из основных элементов технологического подхода. Эффективное управление сопутствующими рисками позволит минимизировать потенциальные негативные последствия применения новых технологий и обеспечит устойчивое развитие сферы высоких технологий.

 

1 O’Sullivan, Andrea. (2017, October 24). Don’t Let Regulators Ruin AI. https://www.technologyreview.com/2017/10/24/3937/dont-let-regulators-ruin-ai/

2 Petit, N. (2017, March 9). Law and Regulation of Artificial Intelligence and Robots – Conceptual Framework and Normative Implications (Working paper, pp. 6–7). http://dx.doi.org/10.2139/ssrn.2931339

3 Там же. Р. 12.

4 European Parliament. (2017, February 15). Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103 (INL)). https://www.europarl.europa.eu/portal/en

5 European Parliament. (2021, April 21). Regulation of the European Parliament and of the Council. Laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain union legislative acts. https://www.europarl.europa.eu/portal/en

6 Например, роботы-ассистенты в хирургии, управление и эксплуатация критической инфраструктурой.

7 Например, чат-боты, виртуальные помощники, умные дома.

8 Например, видеоигры, спам-фильтры.

9 При разработке и применении таких систем должны соблюдаться «принципиальные требования», такие как требования к качеству данных, документированию и прослеживаемости, человеческому контролю и др. В частности, до размещения на рынке или введения в эксплуатацию должна быть составлена техническая документация, в которой необходимо отразить соответствие системы установленным требованиям, а также всю необходимую информацию для оценки системы на соответствие (статья 11). Проект также требует разрабатывать системы таким образом, чтобы обеспечивались ведение учета во время работы системы (статья 12), а также прозрачность системы ИИ и предоставление информации (статья 13), с тем чтобы пользователи высокорисковых систем могли использовать их надлежащим образом и корректно интерпретировать выходные данные. Контроль со стороны человека должен осуществляться на протяжении всего жизненного цикла системы с возможностью в любой момент вмешаться в работу системы и при необходимости остановить или скорректировать ее.

10 Утверждена распоряжением Правительства РФ от 27.11.2021 № 3363-р. https://base.garant.ru/403156321/

11 «Базовая модель определения критериев и категорий риска» (утв. протоколом заседания проектного комитета от 31.03.2017 № 19(3)) (вместе с «Требованиями к обоснованию предлагаемых федеральными органами исполнительной власти – участниками приоритетной программы “Реформа контрольной и надзорной деятельности” категорий риска (классов опасности) и критериев риска в отношении осуществляемых ими видов государственного контроля (надзора)»).

12 Статья 1261 Гражданского кодекса РФ.

13 Указ Президента Российской Федерации от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации», которым утверждена Национальная стратегия развития искусственного интеллекта на период до 2030 г.

14 Статья 2 Федерального закона от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных».

15 ГОСТ Р 59277-2020. Национальный стандарт РФ. Системы искусственного интеллекта. Классификация систем искусственного интеллекта. Дата введения 01.03.2021.

16 О внесении изменений в Закон Российской Федерации «О защите прав потребителей»: Федеральный закон от 29.07.2018 № 250-ФЗ. http://www.consultant.ru/document/cons_doc_LAW_303537/

17 О защите прав частных лиц применительно к обработке персональных данных и о свободном движении таких данных: Директива ЕС 95/46/EC от 24 октября 1995 г. (Директива ЕС 95/46/EC «О персональных данных»).

18 О защите физических лиц в отношении обработки персональных данных и о свободном перемещении таких данных: Регламент ЕС 2016/679 от 27 апреля 2016 г. 

19 См., например: ГОСТ 28195-89. Оценка качества программных средств. Общие положения. Введен 01.07.1990; ГОСТ 28806-90. Качество программных средств. Термины и определения. Введен 01.01.1992; ГОСТ Р 51188-98. Защита информации. Испытание программных средств на наличие компьютерных вирусов. Типовое руководство. Введен 01.07.1999.

Список литературы

1. Алексеев, А. О., Ерахтина, О. С., Кондратьева, К. С., Никитин, Т. Ф. (2020). Подходы к гражданско-правовой ответственности разработчика технологий искусственного интеллекта: на основе классификации технологий. Информационное общество, 6, 47–57. https://elibrary.ru/ylddab

2. Балашова, А. И. (2022). Искусственный интеллект в авторском и патентном праве: объекты, субъектный состав правоотношений, сроки правовой охраны. Журнал Суда по интеллектуальным правам, 2(36), 90–98. EDN: https://elibrary.ru/apldua

3. Василевская, Л. Ю., Подузова, Е. Б., Тасалов, Ф. А. (2021). Цифровизация гражданского оборота: правовая характеристика «искусственного интеллекта» и «цифровых» субъектов (цивилистическое исследование) (в 5 т.). Москва: Проспект. https://elibrary.ru/nrjkdo

4. Войниканис, Е. А., Семенова, Е. В., Тюляев, Г. С. (2018). Искусственный интеллект и право. Вызовы и возможности самообучающихся алгоритмов. Вестник Воронежского государственного университета. Серия: Право, 4(35), 137–148. https://elibrary.ru/yumlnz

5. Михалева, Е. С., Шубина, Е. А. (2019). Проблемы и перспективы правового регулирования робототехники. Актуальные проблемы российского права, 12(109), 26–35. https://doi.org/10.17803/19941471.2019.109.12.026-035

6. Понкин, И. В., Редькина, А. И. (2018). Искусственный интеллект с точки зрения права. Вестник РУДН. Серия: Юридические науки, 22(1), 91–109. https://doi.org/10.22363/2313-2337-2018-22-1-91-109

7. Савельев, А. И. (2016). Направления эволюции свободы договора под влиянием современных информационных технологий. В сб. М. А. Рожкова (рук. авт. кол. и отв. ред.), Свобода договора. Москва: Статут. https://elibrary.ru/xxoolt

8. Calo, R. (2011). Open robotics. Maryland Law Review, 70.3, 101–142.

9. Ellul, J., Pace, G., McCarthy, S., Sammut, T., Brockdorf, J., & Scerri, M. (2021). Regulating artifcial intelligence: a technology regulator’s perspective. In Proceedings of the Eighteenth International conference on artifcial intelligence and law (pp. 190–194). https://doi.org/10.1145/3462757.3466093

10. Ellul, J. (2022). Should we regulate Artificial Intelligence or some uses of Software? Discover Artificial Intelligence, 2(5). https://doi.org/10.1007/s44163-022-00021-9

11. Erdélyi, O. J., & Goldsmith, J. (2018). Regulating artifcial intelligence: proposal for a global solution. In Proceedings of the 2018 AAAI/ACM conference on AI, ethics, and society (pp. 95–101).

12. Gellert, R. (2021). The role of the risk-based approach in the General data protection Regulation and in the European Commission’s proposed Artificial Intelligence Act: Business as usual? Journal of Ethics and Legal Technologies, 3(2), 15–33.

13. Gonçalves, M. E. (2020). The risk-based approach under the new EU data protection regulation: a critical perspective. Journal of Risk Research, 23(2), 139–152. https://doi.org/10.1080/13669877.2018.1517381

14. Hamon, R., Junklewitz, H., Sanchez, I., Malgieri, G., & De Hert, P. (2022). Bridging the gap between AI and explainability in the GDPR: towards trustworthiness-by-design in automated decision-making. IEEE Comput Intell Mag., 17(1), 72–85. https://doi.org/10.1109/mci.2021.3129960

15. Leenes, R. (2019). Regulating New Technologies in Uncertain Times. https://doi.org/10.1007/978-94-6265-279-8_2

16. Mogul, J. C. (2006). Emergent (mis) behavior vs. complex software systems. ACM SIGOPS Oper. Syst. Rev., 40(4), 293–304. https://doi.org/10.1145/1218063.1217964

17. Scherer, M. U. (2016) Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, 29(2), 353–400. https://doi.org/10.2139/ssrn.2609777

18. Smuha, N. A. (2021). From a ‘race to AI’ to a ‘race to AI regulation’: regulatory competition for artificial intelligence. Law. Innov. Technol., 13(1), 57–84. https://doi.org/10.1080/17579961.2021.1898300

19. Wagner, B. (2018). Ethics as an escape from regulation: from ethics-washing to ethics-shopping. In Being profling: cogitas ergo sum (pp. 86–90). Amsterdam: Amsterdam University Press. https://doi.org/10.1515/9789048550180-016

20. Zielke, T. (2020). Is artificial intelligence ready for standardization? In European conference on software process improvement (pp. 259–274). Springer.


Об авторе

О. С. Ерахтина
Пермский филиал Национального исследовательского университета «Высшая школа экономики»
Россия

Ерахтина Ольга Сергеевна – кандидат юридических наук, доцент, доцент кафедры гражданского и предпринимательского права

Web of Science Researcher ID: https://www.webofscience.com/wos/author/record/K­3149­2014

Google Scholar ID: https://scholar.google.ru/citations?hl=ru&user=WdwWB4kAAAAJ

РИНЦ Author ID: https://www.elibrary.ru/author_items.asp?authorid=498773 

614070, г. Пермь, ул. Студенческая, 38


Конфликт интересов:

Автор заявляет об отсутствии конфликта интересов.



  • риск-ориентированный и технологический подходы к определению направлений дальнейшего развития искусственного интеллекта: соотношение, особенности и ограничения;
  • доктринальные и прикладные критерии определения уровня риска применения технологии искусственного интеллекта: тип технологии, сфера применения, уровни опасности и др.;
  • способы управления рисками от уровня рисковости определенной технологии;
  • "синдром несовершенного закона", пробелы и пределы регулирования сферы разработки и применения технологий искусственного интеллекта.

Рецензия

Для цитирования:


Ерахтина О.С. Подходы к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта: особенности и практическая применимость. Journal of Digital Technologies and Law. 2023;1(2):421–437. https://doi.org/10.21202/jdtl.2023.17. EDN: lbwsxw

For citation:


Erahtina O.S. Approaches to Regulating Relations in the Sphere of Developing and Using the Artificial Intelligence Technologies: Features and Practical Applicability. Journal of Digital Technologies and Law. 2023;1(2):421–437. https://doi.org/10.21202/jdtl.2023.17. EDN: lbwsxw

Просмотров: 1619


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2949-2483 (Online)