Preview

Journal of Digital Technologies and Law

Расширенный поиск
Том 1, № 2 (2023)
Скачать выпуск PDF (English) | PDF
https://doi.org/10.21202/2949-2483.2023.2

СТАТЬИ

  • медицина, право, цифровизация: проблема охраны неприкосновенности частной жизни и безопасности персональных данных;
  • этика, права человека и обеспечение законности на всех стадиях жизненного цикла искусственного интеллекта: алгоритмический аудит в вопросах машинного обучения;
  • автоматизированное принятие решений при оказании персонализированных медицинских услуг: риск-ориентированный подход;
  • проблема цифрового неравенства уязвимых групп населения.
314–336 2680
Аннотация

Цель: стремительное распространение телемедицины в клинической практике и возрастающая роль искусственного интеллекта ставят перед юристами множество проблем относительно охраны неприкосновенности частной жизни. Повышенная сензитивность данных в этой области заставляет уделить особое внимание правовым аспектам таких систем. В статье исследуются правовые последствия использования искусственного интеллекта в телемедицине, в частности, систем непрерывного обучения и автоматизированного принятия решений; фактически оказание персонализированных медицинских услуг через системы непрерывного обучения может представлять дополнительный риск. Особого внимания заслуживают уязвимые группы населения – дети, пожилые люди и тяжелобольные пациенты – как по причине цифрового неравенства, так и из-за сложностей с выражением своего согласия.

Методы: сравнительно-правовые и формально-правовые методы исследования позволили проанализировать текущее состояние регулирования искусственного интеллекта и выявить его соотношение с нормами регулирования телемедицины, Общим регламентом ЕС по защите персональных данных и другими нормами.

Результаты: изучены правовые последствия использования искусственного интеллекта в телемедицине, в частности, систем непрерывного обучения и автоматизированного принятия решений; автор приходит к выводу, что оказание персонализированных медицинских услуг через системы непрерывного обучения представляет дополнительные риски, и предлагает пути их минимизации. Автор также уделяет особое внимание вопросам информированного согласия уязвимых групп населения (детей, пожилых, тяжелобольных).

Научная новизна: изучены актуальные риски и проблемы, возникающие в сфере использования искусственного интеллекта в телемедицине, при этом особое внимание уделено системам непрерывного обучения.

Практическая значимость: полученные результаты восполняют недостаток научных исследований по данной теме, могут быть использованы в законодательном процессе в сфере использования искусственного интеллекта в телемедицине, а также в качестве основы для будущих исследований в данной области.

  • открытость алгоритмов и проблема "черного" ящика: междисциплинарный анализ технологических и юридических теорий;
  • выбор применяемых средств правового регулирования и установление объективных границ юридического вмешательства в технологическую сферу с помощью регулирующего воздействия;
  • прозрачные и непрозрачные технологии: проблема доверия к алгоритмическим автоматизированным искусственным системам через призму их открытости и объяснимости;
  • политика управления технологической прозрачностью искусственного интеллекта: аудит, стандартизация, сертификация алгоритмических моделей, применяемых в различных сферах деятельности.
337–358 2077
Аннотация

Цель: анализ действующих технологических и юридических теорий для определения содержания принципа прозрачности работы искусственного интеллекта с позиции правового регулирования, выбора применимых средств правового регулирования и установление объективных границ юридического вмешательства в технологическую сферу с помощью регулирующего воздействия.

Методы: методологическую основу исследования составляет совокупность общенаучных (анализ, синтез, индукция, дедукция) и специально­юридических (историко­правовой, формально­юридический, сравнительно­правовой) методов научного познания.

Результаты: подвергнуты критическому анализу нормы и предложения для нормативного оформления принципа прозрачности искусственного интеллекта с точки зрения невозможности получения полной технологической прозрачности искусственного интеллекта. Выдвинуто предложение обсудить варианты политики управления алгоритмической прозрачностью и подотчетностью на основе анализа социальных, технических и регулятивных проблем, создаваемых алгоритмическими системами искусственного интеллекта. Обосновано, что прозрачность является необходимым условием для признания искусственного интеллекта заслуживающим доверия. Обосновано, что прозрачность и объяснимость технологии искусственного интеллекта важна не только для защиты персональных данных, но и в иных ситуациях автоматизированной обработки данных, когда для принятия решений недостающие из входящей информации технологические данные восполняются из открытых источников, в том числе не имеющих значения хранилищ персональных данных. Предложено законодательно закрепить обязательный аудит и ввести стандарт, закрепляющий компромисс между возможностями и преимуществами технологии, точностью и объяснимостью результата ее работы и правами участников общественных отношений. Введение сертификации моделей искусственного интеллекта, обязательных к применению, позволит решить вопросы ответственности обязанных применять такие системы субъектов. В контексте вопроса о профессиональной ответственности профессиональных субъектов, таких как врачи, военные, органы корпоративного управления юридического лица, требуется ограничить обязательное применение искусственного интеллекта в случаях, если не обеспечена его достаточная прозрачность.

Научная новизна: междисциплинарный характер исследования позволил выявить невозможность и необоснованность требований полного открытия исходного кода или архитектуры моделей искусственного интеллекта. Принцип прозрачности искусственного интеллекта может быть обеспечен за счет проработки и обеспечения права субъекта данных и субъекта, которому адресовано решение, принятое в результате автоматизированной обработки данных, на отказ от применения автоматизированной обработки данных для принятия решений и права на возражения против принятых таким способом решений.

Практическая значимость: обусловлена отсутствием в настоящее время достаточного регулирования принципа прозрачности искусственного интеллекта и результатов его работы, а также содержания и особенностей реализации права на объяснение и права на возражение субъекта решения. Наиболее плодотворный путь для установления доверия к искусственному интеллекту заключается в том, чтобы признать данную технологию частью сложной социотехнической системы, которая опосредует доверие, и повышать надежность этих систем. Основные положения и выводы исследования могут быть использованы для совершенствования правового механизма обеспечения прозрачности моделей искусственного интеллекта, применяемых в государственном управлении и бизнесе.

 

  • концепции наделения искусственного интеллекта правосубъектностью;
  • индивидуальная, коллективная, градиентная правосубъектность искусственного интеллекта;
  • дифференциация правового регулирования искусственного интеллекта в качестве объекта и квазисубъекта ("электронного агента") права;
  • киберфизические интеллектуальные системы и генеративные модели виртуальных интеллектуальных систем: к вопросу о функциональных различиях систем искусственного интеллекта в определении их статуса.
359–386 5212
Аннотация

Цель: выявление проблем, связанных с правовым регулированием общественных отношений, в которых используются системы искусственного интеллекта, и рациональное осмысление обсуждаемой правоведами возможности наделения таких систем статусом субъекта права.

Методы: методологической основой исследования являются общенаучные методы анализа и синтеза, аналогии, абстрагирования и классификации. Среди преимущественно применяемых в работе юридических методов – формально-юридический, сравнительно-правовой и системно-структурный, а также методы толкования права и правового моделирования.

Результаты: представлен обзор состояния развития искусственного интеллекта и его внедрения на практике ко времени проведения исследования. Рассмотрено нормативно-правовое регулирование в данной области и разобраны основные из существующих концепций наделения искусственного интеллекта правосубъектностью (индивидуальная, коллективная и градиентная правосубъектность искусственного интеллекта). При этом дана оценка каждого из подходов и сделаны выводы о наиболее предпочтительных вариантах внесения изменений 

в действующее законодательство, которое перестает соответствовать реалиям. Растущее несоответствие связано с ускоряющимся развитием искусственного интеллекта и его распространением в различных секторах экономики, социальной сферы, а в ближайшей перспективе и в государственном управлении. Все это свидетельствует о повышении риска разрыва правовой материи с изменяющейся социальной реальностью.

Научная новизна: классифицированы научные подходы к наделению искусственного интеллекта правосубъектностью. В рамках каждого из подходов выделены ключевые моменты, использование которых позволит в дальнейшем создавать правовые конструкции на основе комбинирования, уходя от крайностей и соблюдая баланс интересов всех сторон. Оптимальным вариантом определения правового статуса искусственного интеллекта может стать внесение интеллектуальных систем в перечень объектов гражданских прав, но с дифференциацией правового регулирования искусственного интеллекта в качестве объекта права и «электронного агента» как квазисубъекта права. Линия разграничения должна проходить в зависимости от функциональных различий интеллектуальных систем, причем «электронным агентом» может быть признан не только робот, но и виртуальная интеллектуальная система.

Практическая значимость: материалы исследования могут быть применены в работе, связанной с подготовкой предложений по внесению изменений и дополнений в действующее законодательство, а также при разработке учебных курсов и написании учебных пособий по тематике, имеющей отношение к регулированию использования искусственного интеллекта.

  • предубеждение и дискриминация в системах автоматизированного принятия решений и обработки персональных данных с учетом этнических, экономических, гендерных и иных стереотипов;
  • двойственная природа алгоритмов оценки риска в сфере права;
  • непознаваемость, непрозрачность и секретность алгоритма в контексте норм об охране интеллектуальной собственности и защиты коммерческой тайны;
  • антидискриминационные подходы при работе с данными: от модели "изучения кейсов", фокусирующейся на частных случаях, к "изучению коллективных рисков", в котором ключевым является влияние алгоритма оценки риска на права человека.
387–420 2085
Аннотация

Цель: появление цифровых технологий, таких как искусственный интеллект, стало вызовом для государств всего мира. Оно породило множество рисков, связанных с нарушением прав человека, включая права на неприкосновенность частной жизни и человеческое достоинство. Это определяет актуальность данного исследования. Цель статьи – проанализировать роль алгоритмов в случаях дискриминации и выяснить, каким образом алгоритмы могут способствовать предубежденности при принятии решений на основе персональных данных. Проведенный анализ помогает оценить проект закона об искусственном интеллекте, направленный на регулирование данной проблемы для предотвращения дискриминации при использовании алгоритмов.

Методы: в работе применялись методы эмпирического и сравнительного анализа. Сравнительный анализ позволил выявить сходства и различия существующего регулирования и положений проекта закона об искусственном интеллекте. С помощью эмпирического анализа рассмотрены реальные примеры алгоритмической дискриминации.

Результаты: результаты исследования показывают, что Закон об искусственном интеллекте нуждается в доработке, так как он остается на уровне дефиниций и недостаточно опирается на эмпирический материал. Автор выдвигает ряд предложений по совершенствованию данного законопроекта.

Научная новизна: заключается в мультидисциплинарности данной работы, рассматривающей вопросы дискриминации, защиты данных и влияния на эмпирическую реальность в сфере алгоритмической дискриминации и охраны неприкосновенности частной жизни.

Практическая значимость: состоит в привлечении внимания к тому факту, что алгоритмы выполняют инструкции, составленные на основе сообщенных им данных. Не имея возможностей для абдукции, алгоритмы действуют лишь как послушные исполнители приказов. Результаты работы могут использоваться в качестве основы для будущих исследований в данной области и в законотворческом процессе.

 

  • риск-ориентированный и технологический подходы к определению направлений дальнейшего развития искусственного интеллекта: соотношение, особенности и ограничения;
  • доктринальные и прикладные критерии определения уровня риска применения технологии искусственного интеллекта: тип технологии, сфера применения, уровни опасности и др.;
  • способы управления рисками от уровня рисковости определенной технологии;
  • "синдром несовершенного закона", пробелы и пределы регулирования сферы разработки и применения технологий искусственного интеллекта.
421–437 1620
Аннотация

Цель: обзор сложившихся в науке подходов к регулированию отношений в сфере применения технологий искусственного интеллекта, выявление основных особенностей и ограничений применения рискориентированного и технологического подходов для определения направлений их дальнейшего развития.

Методы: методологическую основу исследования составляет совокупность методов научного познания, в том числе общенаучный диалектический и универсальные научные методы (анализ и синтез, сравнение, обобщение, структурно-функциональный, формально-логический).

Результаты: определено, что применение рискориентированного подхода предполагает построение конструктивных моделей управления рисками. Значимым вопросом для применения данного подхода является вопрос об основаниях отнесения технологий искусственного интеллекта к высокорисковым. При определении уровня риска применения технологии искусственного интеллекта необходимо применять следующие критерии: тип технологии искусственного интеллекта, сферу ее применения, а также уровень ее потенциальной опасности для окружающей среды, здоровья, других фундаментальных прав граждан.

В свою очередь, центральным вопросом для применения технологического подхода является вопрос о необходимости и пределах регулирования сферы разработки и применения технологий искусственного интеллекта. Во-первых, вмешательство в данную сферу не должно создавать препятствий для развития технологий и инноваций.

Во-вторых, естественная реакция регулятора в ответ на появление новых объектов и субъектов оборота – «синдром несовершенного закона». Вместе с тем ложное представление об отсутствии правового регулирования может дать обратный эффект – дублирование правовых норм. В целях решения проблемы дублирования законодательных требований следует прежде всего решить вопрос о том, необходимо ли регулировать технологии искусственного интеллекта или некоторые виды использования программного обеспечения.

Научная новизна: проведен обзор основных подходов к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта, выявлены возможности и ограничения их применения, предложены дальнейшие направления их развития.

Практическая значимость: основные положения и выводы исследования могут быть использованы для определения оптимальных подходов к регулированию сферы цифровых технологий, а также в целях совершенствования правового регулирования рассматриваемой области общественных отношений.

  • эволюция автоматизации хозяйственных отношений на примере отрасли конкурентных закупок для государственных и корпоративных нужд;
  • пять цифровых трансформаций конкурентных закупок: поэтапное внедрение цифровых технологий и модификация правового регулирования хозяйственных отношений;
  • правовой статус сделки, совершенной с участием искусственного интеллекта, и иные вопросы правового регулирования хозяйственных отношений, реализуемых с использованием цифровых технологий;
  • модели распределения ответственности за решения, ставшие результатом действия алгоритмов программно-аппаратного комплекса.
438–463 1458
Аннотация

Цель: исследование проблемы определения субъекта юридически значимого действия, совершенного с использованием искусственного интеллекта, а также распределения ответственности за последствия его работы.

Методы: для иллюстрации проблематики и практической значимости вопроса о правосубъектности искусственного интеллекта были выбраны автоматизированные закупки для государственных и корпоративных нужд, а методологическую основу исследования составила совокупность методов научного познания, используемых для теоретико-правовых исследований, в том числе сравнения, ретроспективного анализа, аналогии и синтеза.

Результаты: на примере отрасли конкурентных закупок для государственных и корпоративных нужд проанализирована эволюция автоматизации хозяйственных отношений вплоть до внедрения искусственного интеллекта. Продемонстрированы успешно апробированные ответы на вызовы, обусловленные поэтапным внедрением цифровых технологий в хозяйственные отношения, а также соответствующие модификации правового регулирования. На основании текущего уровня развития технологий сформулированы перспективные вопросы правового регулирования хозяйственных отношений, реализуемых с использованием искусственного интеллекта, и прежде всего вопрос определения субъекта сделки, совершенной с использованием искусственного интеллекта. В качестве приглашения к дискуссии после анализа выводов правоведов о возможных вариантах юридического статуса искусственного интеллекта предложены варианты ответа на вопрос о его правосубъектности при заключении сделки. Для решения вопроса об ответственности за решения, ставшие результатом реализации алгоритмов программно-аппаратного комплекса, предложено несколько моделей распределения такой ответственности между его создателем, его владельцем и иными лицами, действия которых могли повлиять на результаты работы такого алгоритма. Предложенные выводы могут использоваться для развития нормативного регулирования как в совокупности, так и по отдельности.

Научная новизна: в работе на основании анализа эволюции практик использования цифровых технологий в закупках сформулированы потенциальные проблемы правового порядка, обусловленные непрерывным процессом автоматизации хозяйственных отношений, а также предложены правовые конструкции для решения таких проблем.

Практическая значимость: выводы и предложения настоящей работы имеют перспективное значение для концептуального понимания и нормативного регулирования инструментов проведения закупок в электронной форме как на корпоративном, так и национальном уровне.

  • современные вооруженные конфликты, новейшие технологии, автономные системы и вопросы международного права;
  • роль робота и человека в военных действиях: направления дискуссии в гуманитарной, правовой, технологической, этической и иных плоскостях;
  • автономные военные роботы в орбите международного права;
  • Международный уголовный суд и его юрисдикция в вопросах автономного вооружения на основе искусственного интеллекта.
464–480 2859
Аннотация

Цель: международное право обязывает государства преследовать лиц, нарушивших закон в ходе вооруженных конфликтов, чему способствовало создание Международного уголовного суда. Цель данной статьи – рассмотрение ответственности за преступления, совершенные с использованием автономных устройств на основе искусственного интеллекта, согласно положениям Римского статута Международного уголовного суда.

Методы: доктринальный анализ позволил изучить позиции экспертов по вопросу ответственности за преступления, совершенные с использованием автономных устройств на основе искусственного интеллекта, согласно положениям Римского статута Международного уголовного суда.

Результаты: в работе показано, что Международный уголовный суд может отправлять правосудие только в отношении физических лиц, предположительно совершивших преступления в рамках его юрисдикции, но не в отношении автономных вооружений. В статье утверждается, что лица, способствовавшие совершению предполагаемых преступлений, будут, вероятно, нести уголовную ответственность за предоставление средств для совершения предполагаемых преступлений автономными вооружениями на основе искусственного интеллекта согласно статье 25(3)(c) Римского статута. Авторы приходят к выводу, что Римский статут дает решение относительно автономного вооружения на основе искусственного интеллекта.

Научная новизна: в статье изучены актуальные вопросы, связанные с ответственностью за преступления, совершенные с использованием автономных устройств на основе искусственного интеллекта, согласно положениям Римского статута Международного уголовного суда.

Практическая значимость: результаты работы могут быть использованы при разработке регулирования автономного вооружения на основе искусственного интеллекта, а также служить основой для будущих исследований в сфере ответственности за использование как автономных вооружений на основе искусственного интеллекта, так и искусственного интеллекта в целом.

  • сложившиеся в науке уголовного процесса подходы к оценке применения технологий искусственного интеллекта;
  • математические алгоритмы на службе уголовного процесса;
  • искусственный интеллект в руках субъекта доказывания;
  • цифровизация судопроизводства и перспективы трансформации процесса доказывания.
481–497 2294
Аннотация

Цель: обобщение и анализ сложившихся в уголовно-процессуальной науке позиций к применению технологий искусственного интеллекта, выработка авторского подхода к перспективам трансформации уголовно-процессуального доказывания под влиянием технологий искусственного интеллекта.

Методы: методологическую основу исследования составляет единство всеобщего, общенаучных и специально-юридических методов правовой науки, в том числе абстрактно-логического, сравнительно-правового и прогностического.

Результаты: определены основные направления применения технологий искусственного интеллекта в уголовном процессе, такие как профилактика и выявление преступлений, организация предварительного расследования, криминалистическое сопровождение расследования преступлений, оценка доказательств на досудебной и судебной стадиях. Автор приходит к выводу, что сложившийся в науке уголовного процесса достаточно оптимистичный подход по данному вопросу значительно опережает реально существующие в настоящее время технологии искусственного интеллекта. Выявлены основные требования, которым должна отвечать деятельность по применению искусственного интеллекта при сборе доказательств по уголовному делу. Обращено внимание на проблемы применения технологий искусственного интеллекта при проведении судебных экспертиз, которые требуют совершенствования методологии судебно-экспертной работы. Рассмотрен вопрос о перспективах трансформации процесса уголовно-процессуального доказывания в условиях внедрения технологий искусственного интеллекта. Обосновывается вывод, что оценка доказательств с помощью математических алгоритмов, в которых применяются заранее установленные значения качества каждого доказательства, противоречит принципу свободы оценки доказательств в уголовном процессе. Автор приходит к выводу об отсутствии в настоящее время достаточных оснований для наделения искусственного интеллекта субъектностью в процессе доказывания.

Научная новизна: в работе предпринята попытка рассмотреть место искусственного интеллекта в уголовно-процессуальном доказывании, выявлены требования, которым должно соответствовать применение этой технологии при сборе доказательств, при этом проанализированы перспективы трансформации процесса доказывания с учетом внедрения технологий искусственного интеллекта.

Практическая значимость: основные положения и выводы исследования могут быть использованы для совершенствования механизма правового регулирования технологий искусственного интеллекта в уголовном процессе.

  • общая этика и вопросы цифровой этики;
  • этические принципы искусственного интеллекта: классификация и международные рекомендации;
  • этические риски искусственного интеллекта и спорные случаи использования алгоритмов в различных областях (здравоохранение, образование, транспорт и др.);
  • частноправовые и этические аспекты искусственного интеллекта в сфере труда.
498–519 1768
Аннотация

Цель: распространение и широкое использование искусственного интеллекта выдвигает на первый план не только проблемы защиты данных, но и этические вопросы. Цель данной статьи – изучение этических аспектов искусственного интеллекта и предложение рекомендаций для его использования в трудовом праве.

Методы: исследование основано на методах сравнительного и эмпирического анализа. Сравнительный анализ позволил изучить положения современного трудового законодательства в контексте искусственного интеллекта. Эмпирический анализ выявил этические проблемы, относящиеся к искусственному интеллекту в сфере труда, путем изучения спорных случаев использования искусственного интеллекта в различных областях, таких как здравоохранение, образование, транспорт и др.

Результаты: частноправовые аспекты этических проблем искусственного интеллекта были изучены в контексте этических и трудовых вопросов права, влияющих на процесс отбора с помощью искусственного интеллекта и на обращение с работниками с точки зрения работодателя. Автор выделяет как общие аспекты этики, так и вопросы цифровой этики. Предложены отдельные международные рекомендации относительно этики искусственного интеллекта.

Научная новизна: исследование посвящено изучению этических аспектов использования искусственного интеллекта в конкретной отрасли частного права – трудовом праве. Автор дает рекомендации относительно этических аспектов использования искусственного интеллекта в данной сфере.

Практическая  значимость: исследование восполняет имеющиеся пробелы в научной литературе по указанному вопросу. Результаты работы могут использоваться в процессе законотворчества и служить базой для дальнейших исследований.

  • четыре этико-правовых модели взаимоотношений общества с технологией искусственного интеллекта: инструментальная, ксенофобная, эмпатическая, толерантная;
  • исторические и технические предпосылки формирования этико-правовых моделей взаимоотношений общества с технологией искусственного интеллекта;
  • междисциплинарное сравнение выделяемых моделей по критериям условий реализации, достоинств, недостатков, характера отношений "человек - искусственный интеллект", правовых последствий и необходимости регулирования отрасли.
  • сценарии реакций законодателя на ситуации использования технологии искусственного интеллекта.
520–539 1685
Аннотация

Цель: исследование современного состояния технологии искусственного интеллекта в формировании прогностических этико-правовых моделей взаимоотношений общества с рассматриваемой сквозной цифровой технологией.

Методы: основным методом исследования является моделирование. Помимо него, в работе использованы сравнительный, абстрактно-логический и исторический методы научного познания.

Результаты: сформулированы четыре этико-правовые модели взаимоотношений общества с технологией искусственного интеллекта: инструментальная (на основе использования человеком системы искусственного интеллекта), ксенофобная (на основе конкуренции человека и системы искусственного интеллекта), эмпатическая (на основе сочувствия и соадаптации человека и систем искусственного интеллекта), толерантная (на основе взаимоиспользования и сотрудничества между человеком и системами искусственного интеллекта). Приведены исторические и технические предпосылки формирования таких моделей. Описаны сценарии реакций законодателя на ситуации использования этой технологии, такие как необходимость точечного регулирования, отказа от регулирования либо же полномасштабного вмешательства в технологическую отрасль экономики. Произведено сравнение моделей по критериям условий реализации, достоинства, недостатков, характера отношений «человек – система искусственного интеллекта», возможных правовых последствий и необходимости регулирования отрасли либо отказа от такового.

Научная новизна: в работе приведена оценка существующих в научной литературе, публицистике мнений и подходов, проанализированы технические решения и проблемы, возникшие в недавнем прошлом и настоящем. Теоретические выводы подтверждаются ссылками на прикладные ситуации, имеющие общественную или правовую значимость. В работе использован междисциплинарный подход, объединяющий правовую, этическую и техническую составляющие, которые, по мнению автора, являются критериальными для любых современных социогуманитарных исследований технологий искусственного интеллекта.

Практическая значимость: феномен искусственного интеллекта связывают с четвертой промышленной революцией, соответственно, эта цифровая технология должна быть изучена многоаспектно и междисциплинарно. Выработанные в научной статье подходы могут быть использованы при дальнейших технических разработках интеллектуальных систем, совершенствования отраслевого законодательства (например, гражданского и трудового), а также при формировании и модификации этических кодексов в сфере разработки, внедрения и использования систем искусственного интеллекта в различных ситуациях.

  • религия, право и цифровые технологии: вопросы взаимовлияния;
  • гарантии и ограничения религиозной свободы: правовая база для установления контроля за религиозной активностью;
  • технологии искусственного интеллекта для контроля за общественными отношениями, возникающими в процессе религиозной активности в китайском цифровом пространстве: предпосылки использования;
  • применение цифровых технологий за контролем религиозной активности в проблемных китайских регионах.
540–563 1274
Аннотация

Цель: на основании изучения статистики преступлений, национального законодательства и норм международного права дать правовую оценку ограничениям права на свободу вероисповедания с применением технологий искусственного интеллекта в Китае.

Методы: методологическую основу исследования составляет совокупность методов научного познания, в том числе конкретно-социологический (анализ статистических данных и иных документов), формально-юридический (изучение правовых категорий и дефиниций), формально-логические методы (анализ и синтез), общенаучные методы (индукция, дедукция) и др.

Результаты: в работе изучены предпосылки использования в Китае технологий искусственного интеллекта для контроля за общественными отношениями, возникающими в процессе религиозной активности как в цифровом пространстве, так и за его пределами; проанализирована правовая база применения указанных мер; дана правовая оценка ограничения религиозной свободы с использованием технологий искусственного интеллекта; сделан прогноз дальнейшего развития китайских законодательства и внешней политики, связанных с религиозной свободой. Дополнительно в работе проанализированы материалы правозащитных организаций, направленных на сдерживание политики КНР по «китаизации» и «деэкстремификации» этнических и религиозных меньшинств, в том числе при помощи контроля и пропаганды с использованием современных цифровых технологий.

Научная новизна: в работе исследована попытка Китая урегулировать связанные с религиозной активностью вызовы, возникающие в процессе стремительной цифровизации общества и государства, с которыми республика сталкивается как развивающаяся, многонациональная и поликофессиональная страна. Установленные ограничения религиозной свободы с применением технологий искусственного интеллекта рассмотрены в комплексе с релевантной статистикой преступлений. Правовая оценка применения искусственного интеллекта как инструмента ограничения свободы вероисповедания дана не только с точки зрения международного права, но и с учетом норм китайского национального законодательства.

Практическая значимость: результаты проведенного исследования могут быть использованы для разработки непротиворечивой нормативной правовой базы для использования технологий искусственного интеллекта в целях противоборства экстремизму.

  • междисциплинарный анализ различных наук: юриспруденции, социологии, философии, компьютерных наук;
  • цифровые технологии, право и человек: поиск человеко-ориентированного подхода к искусственному интеллекту;
  • три принципа человеко-ориентированного искусственного интеллекта для правовой сферы;
  • перспективы развития области человеко-ориентированного искусственного интеллекта в юриспруденции.
564–580 1666
Аннотация

Цель: определение проблем, которые ставит распространение технологий искусственного интеллекта перед юридической теорией и практикой, и соотнесение этих проблем с человеко-ориентированным подходом к искусственному интеллекту (Human-Centered AI).

Методы: исследование основано на критическом анализе релевантной литературы из разных дисциплинарных областей: юриспруденции, социологии, философии, компьютерных наук.

Результаты: в статье сформулированы основные перспективы и проблемы, которые ставит перед правовой системой развитие цифровых технологий в целом и алгоритмов искусственного интеллекта в частности. Выделенные проблемы соотнесены с положениями человеко-ориентированного подхода к искусственному интеллекту. Авторы утверждают необходимость того, чтобы разработчики программ искусственного интеллекта, владельцы компаний, участвующих в гонке по внедрению технологий искусственного интеллекта, сосредоточивались на том, чтобы люди и человек как базовая ценность общества находились в центре внимания. В частности, специальные усилия следует направить на сбор и анализ высококачественных данных для организации разработок инструментов искусственного интеллекта, поскольку сегодня алгоритмы искусственного интеллекта эффективны настолько, насколько эффективны данные, на которых они обучаются. Авторы формулируют три принципа человеко-ориентированного искусственного интеллекта для правовой сферы: 1) человек как необходимое звено в цепочке принятия и исполнения правовых решений; 2) необходимость регулирования искусственного интеллекта на уровне международного права; 3) формулировка «табу» для внедрения технологий искусственного интеллекта.

Научная новизна: статья представляет собой первую в русскоязычной научной литературе попытку обозначить перспективы развития области человеко-ориентированного искусственного интеллекта в юриспруденции. На основании анализа специальной литературы авторы формулируют три принципа включения искусственного интеллекта в юридическую теорию и практику с точки зрения человеко-ориентированного подхода к искусственному интеллекту.

Практическая значимость: принципы, сформулированные в статье, будут полезны как для правового регулирования технологий искусственного интеллекта, так и для гармоничного их включения в юридические практики.



Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2949-2483 (Online)