Прозрачность искусственного интеллекта часто ставится на первое место в дискуссиях по поводу регулирования цифровых технологий. Расширение рамок доступа к информации до понимания ИИ лежит в основе концепции объяснимого ИИ. Данная концепция предусматривает систему возможных объяснений того, как работает ИИ. В их числе: каузальные объяснения (основаны на традиционной правовой логике причинно-следственных связей), контрфактические объяснения (раскрытие тех факторов процесса принятия решений на основе ИИ, которые нужно изменить, чтобы прийти к другому результату), объяснения в контексте (возможность гражданам защитить свои права в суде). Однако прозрачности ИИ в публичном секторе способно помешать то, что программы часто создаются в частном секторе и защищены правом интеллектуальной собственности или коммерческой тайной. Для учета и преодоления разнообразных рисков при использовании ИИ в государственном управлении необходимо нормативно закрепить принцип прозрачности (транспарентности), распространив его на использование ИИ в государственном управлении, включая имплементацию концепции объяснимого ИИ.