Preview

Journal of Digital Technologies and Law

Расширенный поиск

Объяснимый искусственный интеллект и правовые традиции: разработка универсальных ключевых показателей эффективности для стран «Большой двадцатки»

https://doi.org/10.21202/jdtl.2025.26

EDN: uiujcv

Аннотация

Цель: изучить концепцию «право на объяснение» в контексте доктрины PEEC (общественные интересы, экологическая устойчивость, экономическое развитие, уголовное правосудие) для разработки ключевых показателей эффективности, отражающих социокультурные особенности различных стран и обеспечивающих адаптивность, прозрачность и культурную релевантность в регулировании объяснимого искусственного интеллекта.

Методы: в исследовании применяется уникальный методологический подход, сочетающий итеративные процессы методологии мягких систем с теоретической базой, основанной на принципах PEEC. Подобная интеграция позволяет комплексно рассмотреть социальные, экономические, политические и правовые режимы крупнейших стран «Большой двадцатки»: Соединенных Штатов Америки, Федеративной Республики Германия, Японии, Республики Индия, Федеративной Республики Бразилия и Российской Федерации – при конструировании ключевых показателей эффективности. Предложенные ключевые показатели эффективности применимы для оценки прозрачности и подотчетности систем искусственного интеллекта, упрощая сбор данных и практическую имплементацию в различных культурных контекстах. Разработанная модель соответствует реальным общественным потребностям в принятии решений с использованием технологий искусственного интеллекта.

Результаты: в исследовании предлагается новая правовая модель регулирования объяснимого искусственного интеллекта, основанная на системе ключевых показателей эффективности. Помимо устранения проблем регулирования объяснимого искусственного интеллекта в различных культурных, этических и правовых областях, данная модель гарантирует, что система регулирования объяснимого искусственного интеллекта должным образом учитывает антропоцентрические аспекты, поскольку ориентирована на раскрытие истинного потенциала искусственного интеллекта. Предложенный подход способствует максимально эффективному использованию технологий искусственного интеллекта на благо общества в перспективе устойчивого развития.

Научная новизна: в работе применен уникальный научный подход, учитывающий культурные, этические, социально-экономические и правовые различия при разработке правовой базы для регулирования объяснимого искусственного интеллекта, что позволяет адаптировать ее к различным национальным условиям, одновременно способствуя ответственному управлению искусственным интеллектом с системой сдержек и противовесов.

Практическая значимость: полученные результаты позволяют использовать предложенную правовую модель в практической деятельности государственных органов и разработчиков систем искусственного интеллекта для обеспечения прозрачности и объяснимости технологий. Эффективная корректировка предлагаемых ключевых показателей эффективности с учетом специфики конкретных государств позволит оптимизировать их для универсального применения. Хотя все пять ключевых показателей эффективности актуальны для крупнейших стран «Большой двадцатки», их относительная значимость зависит от социокультурных и правовых условий конкретного государства. Дальнейшие исследования должны охватывать более широкий спектр вопросов, включая другие развитые и развивающиеся страны, для адаптации регулирования объяснимого искусственного интеллекта к различным национальным и глобальным требованиям.

Об авторах

Н. Бхатт
Государственный инженерный колледж
Индия

Бхатт Нилкант – PhD, доцент, заведующий кафедрой гражданского строительства.

360 005, штат Гуджарат, г. Раджкот, ул. Мавди-Канкот

Scopus Author ID: https://www.scopus.com/authid/detail.uri?authorId=58919442100

WoS Researcher ID: https://www.webofscience.com/wos/author/record/KRO-8652-2024

Google Scholar ID: https://scholar.google.com/citations?user=L7K-e3IAAAAJ


Конфликт интересов:

Автор сообщает об отсутствии конфликта интересов.



Дж. Н. Бхатт
Государственная корпорация страхования работников
Индия

Бхатт Джайкишен Наталал – бакалавр коммерции, сотрудник службы социального обеспечения в отставке.

380 009, штат Гуджарат, г. Ахмедабад, ул. Ашрам, Панчдип Бхаван


Конфликт интересов:

Автор сообщает об отсутствии конфликта интересов.



Список литературы

1. Bhatt, N. (2025). Crimes in the Age of Artificial Intelligence: a Hybrid Approach to Liability and Security in the Digital Era. Journal of Digital Technologies and Law, 3(1), 65–88. https://doi.org/10.21202/jdtl.2025.3

2. Bhatt, N., & Bhatt, J. (2023). Towards a novel eclectic framework for administering artificial intelligence technologies: A proposed ‘PEEC’ doctrine. EPRA International Journal of Research and Development (IJRD), 8(9), 27–36. https://doi.org/10.13140/RG.2.2.11434.18888

3. Checkland, P., & Poulter, J. (2020). Soft Systems Methodology. In M. Reynolds, S. Holwell (Retired) (Eds), Systems Approaches to Making Change: A Practical Guide (pp. 201–253). Springer, London. https://doi.org/10.1007/978-1-4471-7472-1_5

4. Comin, D., & Hobijn, B. (2011). An exploration of technology diffusion. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.1116606

5. Doshi-Velez, F., Kortz, M., Budish, R., Bavitz, C., Gershman, S., O’Brien, D., Schieber, S., Waldo, J., Weinberger, D., Weller, A., & Wood, A. (2017). Accountability of AI Under the Law: The Role of Explanation. ArXiv, abs/1711.01134. https://doi.org/10.2139/SSRN.3064761

6. Eckhardt, G. (2002). Culture’s Consequences: Comparing Values, Behaviors, Institutions and Organisations Across Nations. Australian Journal of Management, 27(1), 89–94. https://doi.org/10.1177/031289620202700105

7. Edwards, L., & Veale, M. (2018). Enslaving the Algorithm: From a “Right to an Explanation” to a “Right to Better Decisions”? IEEE Security & Privacy, 16, 46–54. https://doi.org/10.1109/MSP.2018.2701152b

8. Gacutan, J., & Selvadurai, N. (2020). A statutory right to explanation for decisions generated using artificial intelligence. International Journal of Law and Information Technology, 28(3), 193–216. https://doi.org/10.1093/ijlit/eaaa016

9. Gilpin, L. H., Bau, D., Yuan, B. Z., Bajwa, A., Specter, M., & Kagal, L. (2018). Explaining Explanations: An Overview of Interpretability of Machine Learning. In 2018 IEEE 5th International Conference on Data Science and Advanced Analytics (DSAA), Turin, Italy, 2018 (pp. 80–89). https://doi.org/10.1109/DSAA.2018.00018

10. Hacker, P., Krestel, R., Grundmann, S., & Naumann, F. (2020). Explainable AI under contract and tort law: Legal incentives and technical challenges. Artificial Intelligence and Law, 28(4), 415–439. https://doi.org/10.1007/s10506-020-09260-6

11. Irwan, M., & Mursyid, M. (2025). AI-Driven Traffic Accidents: A Comparative Legal Study. Artes Libres Law and Social Journal, 1(1), 1–20. https://doi.org/10.12345/jxt3j717

12. Jan, J., Alshare, K. A., & Lane, P. L. (2024). Hofstede’s cultural dimensions in technology acceptance models: a meta-analysis. Universal Access in the Information Society, 23(2), 717–741. https://doi.org/10.1007/s10209-022-00930-7

13. Malgieri, G. (2019). Automated decision-making in the EU Member States: The right to explanation and other «suitable safeguards» in the national legislations. Computer Law & Security Review, 35(5), 105327. https://doi.org/10.1016/J.CLSR.2019.05.002

14. Peters, U., & Carman, M. (2024). Cultural bias in explainable AI research: A systematic analysis. Journal of Artificial Intelligence Research, 79, 971–1000. https://doi.org/10.1613/jair.1.14888

15. Prabhakaran, V., Qadri, R., & Hutchinson, B. (2022). Cultural incongruencies in artificial intelligence. arXiv preprint arXiv:2211.13069. https://doi.org/10.48550/arXiv.2211.13069

16. Ribeiro, L. H. da C., Silva, C. M. da, & Viana, P. W. P. (2024). Artificial intelligence as a tool for predicting crime in large Brazilian cities. Revista FT, 28. https://doi.org/10.5281/zenodo.11100354

17. Taylor, E. (2023). Explanation and the Right to Explanation. Journal of the American Philosophical Association, 10(3), 467–482. https://doi.org/10.1017/apa.2023.7

18. Triandis, H. C. (2018). Individualism and collectivism. Routledge. https://doi.org/10.4324/9780429499845


  • разработана инновационная правовая модель регулирования объяснимого искусственного интеллекта на основе доктрины PEEC, интегрирующей общественные интересы, экологическую устойчивость, экономическое развитие и уголовное правосудие;
  • предложена система пяти комплексных ключевых показателей эффективности для оценки объяснимости систем искусственного интеллекта: индекс прозрачности и доверия, индекс снижения предвзятости, индекс углеродного следа ИИ, соотношение социально-экономических выгод и затрат в области ИИ, оценка культурной и правовой подотчетности;
  • проведен сравнительно-правовой анализ регулирования «права на объяснение» в шести крупнейших странах «Большой двадцатки» – США, Германии, Японии, Индии, Бразилии и России – с учетом их социокультурных и правовых особенностей;
  • установлены дифференцированные целевые значения ключевых показателей эффективности в зависимости от уровня риска принимаемых решений: для решений с высокой степенью риска индекс прозрачности и доверия должен составлять 90–100 %, для стратегических решений – 70–90 %.

Рецензия

Для цитирования:


Бхатт Н., Бхатт Д.Н. Объяснимый искусственный интеллект и правовые традиции: разработка универсальных ключевых показателей эффективности для стран «Большой двадцатки». Journal of Digital Technologies and Law. 2025;3(4):660-676. https://doi.org/10.21202/jdtl.2025.26. EDN: uiujcv

For citation:


Bhatt N., Bhatt J.N. Explainable Artificial Intelligence and Legal Ethos: Developing Key Performance Indicators for ‘G20 Giants’. Journal of Digital Technologies and Law. 2025;3(4):660-676. https://doi.org/10.21202/jdtl.2025.26. EDN: uiujcv

Просмотров: 410


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2949-2483 (Online)