Дата публикации: 05.03.2026

О возможности установления уголовной ответственности искусственного интеллекта в законодательстве Вьетнама

Аннотация

Стремительное развитие искусственного интеллекта (далее по тексту — ИИ) поставило перед правом новые вызовы, особенно в сфере уголовной ответственности в случае причинения вреда ИИ. В статье рассматривается вопрос о возможности установления уголовной ответственности ИИ в праве Социалистической Республики Вьетнам. Используя сравнительно-правовой и аналитический методы, автор анализирует существующие зарубежные модели уголовной ответственности ИИ и их применимость во Вьетнаме. Исследование показывает, что введение уголовной ответственности ИИ в национальное законодательство является как необходимым, так и осуществимым, однако требует поэтапного подхода с учетом правовых условий Вьетнама. В статье предложены конкретные меры по совершенствованию правового регулирования в данной области, включая дополнение УК СРВ и разработку механизмов определения юридической ответственности субъектов, связанных с ИИ.




Введение

Искусственный интеллект является прорывной технологией Четвертой промышленной революции (4.0), которая активно развивается во Вьетнаме в рамках Национальной стратегии до 2030 г. Вместе с тем системы ИИ порождают серьезные правовые вызовы, особенно в сфере уголовной ответственности, когда они причиняют вред людям или имуществу. Традиционные правовые рамки сталкиваются с многочисленными трудностями при рассмотрении преступлений с участием систем ИИ, поскольку такие базовые категории, как правосубъектность, объективная сторона преступления (actus reus), причинно-следственная связь и субъективная сторона преступления (mens rea), оказываются неприменимыми к сущности этой технологии. Хотя УК СРВ 2015 г. содержит отдельные нормы, касающиеся преступлений в сфере информационных технологий, — например, ст. 285 о производстве, сбыте инструментов, устройств и программного обеспечения для незаконного использования, — в отношении ситуаций, когда ИИ непосредственно совершает преступные действия или автоматически причиняет вред без прямого вмешательства человека, в настоящее время отсутствует четкое и конкретное правовое регулирование. В связи с этим актуализируются исследования возможностей формирования норм об уголовной ответственности за деяния ИИ в национальной правовой системе Вьетнама, а также гармонизации внутреннего законодательства с лучшими достижениями зарубежного права.

1. Теоретические основы установления уголовной ответственности в отношении систем ИИ

Прежде чем обсуждать уголовную ответственность в отношении ИИ, необходимо определить его правовую природу и место в системе субъектов права. В настоящее время существуют две основные точки зрения: а) первая точка зрения утверждает, что ИИ является исключительно инструментом или техническим устройством, созданным и используемым человеком, и, следовательно, не может выступать в качестве самостоятельного субъекта правоотношений. Все действия ИИ должны возлагаться на соответствующих лиц или организации, включая разработчиков, программистов, владельцев или пользователей системы ИИ; б) вторая точка зрения предполагает, что с развитием технологий некоторые системы ИИ уже демонстрируют характеристики, схожие с традиционными правосубъектами, и даже способны самостоятельно принимать решения и осуществлять действия без прямого вмешательства человека. В случаях, когда ИИ осознает свои действия и причиняет вред, он должен нести ответственность как «электронная личность».

В международной практике были разработаны две модели уголовной ответственности ИИ: а) модель прямой ответственности Direct Liability предполагает, что в случаях автономной деятельности ИИ сама система несет прямую уголовную ответственность за совершенные преступные деяния. Например, если автономное транспортное средство совершает аварию из-за программной ошибки, система ИИ может быть признана субъектом прямой ответственности; б) модель косвенной ответственности Indirect Liability, также называемая заменяющей ответственностью, исходит из того, что ответственность несет не сама система ИИ, а другое лицо — например, разработчик, владелец или пользователь системы, особенно в случаях, когда они не смогли предвидеть или предотвратить потенциальный вред.

Список литературы

1. Шестак В.А. О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США / В.А. Шестак, А.Г. Волеводз, В.А. Ализаде // Всероссийский криминологический журнал.
2. Fekry, A. Criminal responsibility for acts committed by artificial intelligence / A. Fekry // Artificial Intelligence: Legal and Economic Prospects and Challenges. 2020. P. 453–454.
3. Padhy, A.K., Padhy, A.K. Criminal liability of entities based on artificial intelligence / A.K. Padhy, A.K. Padhy // Nirma University Law Journal. 2019. Vol. 8. Iss. 2. P. 16–23.
4. Sachoulidou, A. AI systems and criminal liability: A call for action / A. Sachoulidou // Oslo Law Review. 2024. Vol. 11. Iss. 1. P. 1–10.

Остальные статьи