О возможности установления уголовной ответственности искусственного интеллекта в законодательстве Вьетнама
Аннотация
Стремительное развитие искусственного интеллекта (далее по тексту — ИИ) поставило перед правом новые вызовы, особенно в сфере уголовной ответственности в случае причинения вреда ИИ. В статье рассматривается вопрос о возможности установления уголовной ответственности ИИ в праве Социалистической Республики Вьетнам. Используя сравнительно-правовой и аналитический методы, автор анализирует существующие зарубежные модели уголовной ответственности ИИ и их применимость во Вьетнаме. Исследование показывает, что введение уголовной ответственности ИИ в национальное законодательство является как необходимым, так и осуществимым, однако требует поэтапного подхода с учетом правовых условий Вьетнама. В статье предложены конкретные меры по совершенствованию правового регулирования в данной области, включая дополнение УК СРВ и разработку механизмов определения юридической ответственности субъектов, связанных с ИИ.
Ключевые слова
| Тип | Статья |
| Издание | Международное уголовное право и международная юстиция № 01/2026 |
| Страницы | 2-5 |
| DOI | 10.18572/2071-1190-2026-1-2-5 |
Введение
Искусственный интеллект является прорывной технологией Четвертой промышленной революции (4.0), которая активно развивается во Вьетнаме в рамках Национальной стратегии до 2030 г. Вместе с тем системы ИИ порождают серьезные правовые вызовы, особенно в сфере уголовной ответственности, когда они причиняют вред людям или имуществу. Традиционные правовые рамки сталкиваются с многочисленными трудностями при рассмотрении преступлений с участием систем ИИ, поскольку такие базовые категории, как правосубъектность, объективная сторона преступления (actus reus), причинно-следственная связь и субъективная сторона преступления (mens rea), оказываются неприменимыми к сущности этой технологии. Хотя УК СРВ 2015 г. содержит отдельные нормы, касающиеся преступлений в сфере информационных технологий, — например, ст. 285 о производстве, сбыте инструментов, устройств и программного обеспечения для незаконного использования, — в отношении ситуаций, когда ИИ непосредственно совершает преступные действия или автоматически причиняет вред без прямого вмешательства человека, в настоящее время отсутствует четкое и конкретное правовое регулирование. В связи с этим актуализируются исследования возможностей формирования норм об уголовной ответственности за деяния ИИ в национальной правовой системе Вьетнама, а также гармонизации внутреннего законодательства с лучшими достижениями зарубежного права.
1. Теоретические основы установления уголовной ответственности в отношении систем ИИ
Прежде чем обсуждать уголовную ответственность в отношении ИИ, необходимо определить его правовую природу и место в системе субъектов права. В настоящее время существуют две основные точки зрения: а) первая точка зрения утверждает, что ИИ является исключительно инструментом или техническим устройством, созданным и используемым человеком, и, следовательно, не может выступать в качестве самостоятельного субъекта правоотношений. Все действия ИИ должны возлагаться на соответствующих лиц или организации, включая разработчиков, программистов, владельцев или пользователей системы ИИ; б) вторая точка зрения предполагает, что с развитием технологий некоторые системы ИИ уже демонстрируют характеристики, схожие с традиционными правосубъектами, и даже способны самостоятельно принимать решения и осуществлять действия без прямого вмешательства человека. В случаях, когда ИИ осознает свои действия и причиняет вред, он должен нести ответственность как «электронная личность».
В международной практике были разработаны две модели уголовной ответственности ИИ: а) модель прямой ответственности Direct Liability предполагает, что в случаях автономной деятельности ИИ сама система несет прямую уголовную ответственность за совершенные преступные деяния. Например, если автономное транспортное средство совершает аварию из-за программной ошибки, система ИИ может быть признана субъектом прямой ответственности; б) модель косвенной ответственности Indirect Liability, также называемая заменяющей ответственностью, исходит из того, что ответственность несет не сама система ИИ, а другое лицо — например, разработчик, владелец или пользователь системы, особенно в случаях, когда они не смогли предвидеть или предотвратить потенциальный вред.
