Саморегулирование как инструмент обеспечения прозрачности искусственного интеллекта
Аннотация
Описывается содержание принципа прозрачности искусственного интеллекта в контексте российских и международных правовых актов и официальных документов. Исследуется проблема реализации данного принципа на примере разных юрисдикций. Делается вывод о необходимости создания саморегулируемых организаций с целью обеспечения прозрачности систем и технологий, основанных на искусственном интеллекте.
Ключевые слова
Тип | Статья |
Издание | Предпринимательское право № 03/2025 |
Страницы | 40-43 |
DOI | 10.18572/1999-4788-2025-3-40-43 |
Прозрачность часто рассматривается как один из принципов, составляющих базовую систему ориентиров правового регулирования искусственного интеллекта. Этот принцип в разных редакциях уже нашел свое отражение во многих международных документах, включая Азиломарские принципы ИИ, Рекомендации Совета по искусственному интеллекту Организации экономического сотрудничества и развития (ОЭСР) и Руководящие принципы этики для надежного ИИ, разработанные в Европейском союзе. Того же подхода придерживается и Российская Федерация: прозрачность является одним из семи основных принципов развития и использования технологий искусственного интеллекта, перечисленных в Национальной стратегии развития искусственного интеллекта на период до 2030 г..
Однако реализация данного принципа в законодательстве зарубежных юрисдикций показала себя весьма неоднозначно. Так, например, Регламент Европейского союза об ИИ предусматривает, с одной стороны, практически полное отсутствие требований к прозрачности таких ИИ-систем, которые оцениваются европейским законодателем как не несущие в себе серьезных рисков, и при этом, с другой стороны, достаточно строгие и затратные для выполнения требования для других систем, включая некоторые передовые модели общего назначения. Для сравнения, в США на уровне штатов было введено значительное количество нормативно-правовых актов, регулирующих использование ИИ в разных сферах, и в том числе некоторые требования к прозрачности систем и технологий искусственного интеллекта, однако, по мнению администрации Белого дома, такие меры лишь понапрасну ограничивают технологическое развитие страны.
На фоне противоречивых подходов иностранных регуляторов российский законодатель проявляет осмотрительность и преимущественно воздерживается от детального регулирования искусственного интеллекта. Помимо стратегических документов, существует лишь один закон, посвященный использованию ИИ, — это Федеральный закон от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данныхˮ». Этот закон, однако, вводит лишь точечное регулирование, касающееся обработки персональных данных с использованием ИИ-систем, и практически никак не затрагивает регулирование разработки и использования ИИ-технологий в целом.
По сравнению с осторожным подходом отечественного законодателя, сама российская индустрия в вопросах регулирования действует более активно. В 2021 году крупнейшими российскими компаниями, занимающимися разработкой и продвижением ИИ-продуктов на российском рынке, была создана ассоциация «Альянс в сфере искусственного интеллекта» (далее — Альянс), призванная способствовать развитию отечественных ИИ-технологий, а в октябре того же года при активном содействии этой ассоциации был принят Кодекс этики в сфере искусственного интеллекта (далее — Кодекс), устанавливающий общие принципы и стандарты для этой индустрии. Принцип прозрачности также нашел отражение в этом документе.
Примерно через два года (ноябрь 2023 г.) на сайте Альянса были опубликованы Рекомендации Комиссии по реализации Кодекса этики в сфере ИИ по теме «Прозрачность алгоритмов искусственного интеллекта и информационных систем на их основе», предлагающие разработкам ИИ-технологий комплекс добровольных мер, направленных на обеспечение доступности, объяснимости и предсказуемости в области искусственного интеллекта. Данные меры предполагают раскрытие информации об используемых разработчиками алгоритмах искусственного интеллекта в свободном формате — в частности, рекомендуется раскрывать сведения о целях, метриках, составе используемых данных и алгоритмах, а также о результатах тестирования и выявленных недостатках.