Published Date: 11.07.2024

Принцип прозрачности использования искусственного интеллекта

Annotation

Прозрачность искусственного интеллекта часто ставится на первое место в дискуссиях по поводу регулирования цифровых технологий. Расширение рамок доступа к информации до понимания ИИ лежит в основе концепции объяснимого ИИ. Данная концепция предусматривает систему возможных объяснений того, как работает ИИ. В их числе: каузальные объяснения (основаны на традиционной правовой логике причинно-следственных связей), контрфактические объяснения (раскрытие тех факторов процесса принятия решений на основе ИИ, которые нужно изменить, чтобы прийти к другому результату), объяснения в контексте (возможность гражданам защитить свои права в суде). Однако прозрачности ИИ в публичном секторе способно помешать то, что программы часто создаются в частном секторе и защищены правом интеллектуальной собственности или коммерческой тайной. Для учета и преодоления разнообразных рисков при использовании ИИ в государственном управлении необходимо нормативно закрепить принцип прозрачности (транспарентности), распространив его на использование ИИ в государственном управлении, включая имплементацию концепции объяснимого ИИ.



Library

1. Южаков В.Н. Инициативный проект закона об обеспечении качества государственного управления / В.Н. Южаков, Э.В. Талапина, Е.И. Добролюбова, Ю.А. Тихомиров. Москва : Издательский дом «Дело» РАНХиГС, 2020. 150 с.
2. Krick E. Expertise and Participation. Institutional Designs for Policy Development in Europe / E. Krick. Cham : Springer, 2021. 247 р.
3. Wischmeyer Th. Artificial Intelligence and Transparency: Opening the Black Box / Th. Wischmeyer // Regulating Artificial Intelligence / eds. by Th. Wischmeyer, T. Rademacher. Cham : Springer, 2020. Р. 75–101.
4. Zhao J. Artificial Intelligence and Sustainable Decisions / J. Zhao, B. Gómez Fariñas // European Business Organization Law Review. 2023. Vol. 24. P. 1–39.

Other articles