Дата публикации: 11.07.2024

Принцип прозрачности использования искусственного интеллекта

Аннотация

Прозрачность искусственного интеллекта часто ставится на первое место в дискуссиях по поводу регулирования цифровых технологий. Расширение рамок доступа к информации до понимания ИИ лежит в основе концепции объяснимого ИИ. Данная концепция предусматривает систему возможных объяснений того, как работает ИИ. В их числе: каузальные объяснения (основаны на традиционной правовой логике причинно-следственных связей), контрфактические объяснения (раскрытие тех факторов процесса принятия решений на основе ИИ, которые нужно изменить, чтобы прийти к другому результату), объяснения в контексте (возможность гражданам защитить свои права в суде). Однако прозрачности ИИ в публичном секторе способно помешать то, что программы часто создаются в частном секторе и защищены правом интеллектуальной собственности или коммерческой тайной. Для учета и преодоления разнообразных рисков при использовании ИИ в государственном управлении необходимо нормативно закрепить принцип прозрачности (транспарентности), распространив его на использование ИИ в государственном управлении, включая имплементацию концепции объяснимого ИИ.




В идеальном мире компании и пользователи ИИ хотят, чтобы системы ИИ были прозрачными, объяснимыми, этичными, адекватно обученными на соответствующих данных и свободными от предвзятости. В реальном правовом мире использование искусственного интеллекта еще не урегулировано, но намечаются некие контуры будущего правового регулирования, где прозрачности отводится значительное место. Так, в Национальной стратегии развития искусственного интеллекта на период до 2030 года, утвержденной Указом Президента РФ от 10 октября 2019 г. № 490 (ред. от 15.02.2024) «О развитии искусственного интеллекта в Российской Федерации», прозрачность перечисляется в ряду основных принципов развития и использования технологий ИИ. Под прозрачностью понимается объяснимость работы искусственного интеллекта и процесса достижения им результатов, недискриминационный доступ пользователей продуктов, которые созданы с использованием технологий искусственного интеллекта, к информации о применяемых в этих продуктах алгоритмах работы искусственного интеллекта.

Аналогично утверждают о необходимости прозрачности в связи с ИИ и другие государства. Более того, в ряду требований к ИИ именно прозрачность часто ставится на первое место. Нам видятся тому две причины. Первая связана с общим трендом прозрачности в общественной сфере. В особенности запрос на прозрачность силен в государственном управлении. В современных дебатах о его легитимности и эффективности доктрина прозрачности приобрела «квазирелигиозное значение», а само стремление к открытию информации производит «обескураживающий эффект прозрачности».

Вторая причина связана с особенностями ИИ, в частности с эффектом «черного ящика» (часто невозможно понять, почему система пришла к такому результату). Здесь акцент делается не столько на доступности, но и на понятности функционирования алгоритмов ИИ, принимающих то или иное решение. В целом можно сказать, что правовой принцип прозрачности стал реакцией на технически обусловленную недостаточную понятность ИИ.

При формулировании понятия прозрачного ИИ важно учитывать два аспекта, а именно прозрачность результата и прозрачность процесса. Первый сценарий включает в себя возможность знать, как и почему модель работает так, как она работает в конкретном контексте, и, следовательно, понять обоснование ее решения или поведения. По сути, объяснимость ИИ — это способность сделать явным результат алгоритмической модели. Для чего это нужно? Знание того, почему алгоритм принял то или иное решение, позволяет нам принимать, игнорировать, оспаривать или отменять это решение.

Второй сценарий отражен в концепции устойчивого ИИ, которая касается не только реализации ИИ, но должна охватывать весь жизненный цикл ИИ, включая проектирование, обучение, развитие, валидацию, перенастройку, внедрение и использование ИИ. В этом смысле регулирование такого жизненного цикла заключается в установлении набора минимальных требований, которым должен соответствовать ИИ, или системы «красных флажков» в отношении принципов, которые ни при каких обстоятельствах не должны нарушаться.

Список литературы

1. Южаков В.Н. Инициативный проект закона об обеспечении качества государственного управления / В.Н. Южаков, Э.В. Талапина, Е.И. Добролюбова, Ю.А. Тихомиров. Москва : Издательский дом «Дело» РАНХиГС, 2020. 150 с.
2. Krick E. Expertise and Participation. Institutional Designs for Policy Development in Europe / E. Krick. Cham : Springer, 2021. 247 р.
3. Wischmeyer Th. Artificial Intelligence and Transparency: Opening the Black Box / Th. Wischmeyer // Regulating Artificial Intelligence / eds. by Th. Wischmeyer, T. Rademacher. Cham : Springer, 2020. Р. 75–101.
4. Zhao J. Artificial Intelligence and Sustainable Decisions / J. Zhao, B. Gómez Fariñas // European Business Organization Law Review. 2023. Vol. 24. P. 1–39.

Остальные статьи