Деликтная ответственность за причинение вреда искусственным интеллектом: проблемы и перспективы развития
Аннотация
Опираясь на базовые положения науки гражданского права, делается вывод о необходимости разработки норм о возмещении вреда, причиненного искусственным интеллектом. Аргументируется авторская позиция об источнике повышенной опасности при использовании искусственного интеллекта. Сделан вывод, что невозможно выделить разные формы вины в деликтном праве при решении вопроса о причинении вреда искусственным интеллектом. Принцип ответственности за вину, как обязательный элемент генерального деликта, при возмещении вреда, причиненного искусственным интеллектом, не имеет принципиального значения. Рассматриваются вопросы об объективных и субъективных основаниях солидарной ответственности лиц за вред, причиненный искусственным интеллектом. Обосновано, что риски, связанные с применением искусственного интеллекта, должны сопровождаться разработкой законодателем специальных деликтов.
Ключевые слова
Тип | Статья |
Издание | Гражданское право № 04/2025 |
Страницы | 2-5 |
DOI | 10.18572/2070-2140-2025-4-2-5 |
В условиях всеобщей цифровизации, связанной с использованием искусственного интеллекта (ИИ) и его технологий, на первый план в цивилистике выходит ряд концептуальных проблем, без решения которых невозможны ни стабильность имущественного оборота, ни развитие доктрины и гражданского законодательства. Активное внедрение цифровых технологий, в том числе и ИИ, во все сферы жизнедеятельности человека выявило немало негативных последствий, связанных не только с участившимися вирусными, хакерскими атаками на компьютерные системы, сайты и информационные платформы, но и с расширением деструктивного цифрового контента, ведущего к трансформации права. Все чаще в распространении отрицательных, противоправных деяний стали винить ИИ. Как справедливо отмечает Е.В. Вавилин, автономные от человека объекты порождают риски совершенно экзистенциального масштаба.
Проблемы деликтной ответственности, связанные с причинением вреда ИИ, достаточно часто рассматриваются многими авторами схоластично — в аспектах, не имеющих в настоящее время практического значения. Например, рассуждения авторов о важности признания ИИ правосубъектным образованием, по сути, сводятся к выводу о необходимости наделения ИИ ответственностью за причиненный вред. Возникает вопрос: чем, каким имуществом будет отвечать ИИ в случае наделения его законодателем правосубъектностью? Разве при оценке ИИ и его возможностей можно игнорировать известный и непреложный постулат математических наук о том, что он есть результат сложного программирования?
Вместе с тем вывод о том, что ИИ как результат творческой интеллектуальной деятельности человека является источником повышенной опасности, рассматривается многими авторами без должной правовой аргументации. Неминуемо встает вопрос: какого подхода придерживаться в трактовке источника повышенной опасности — теории деятельности или теории объекта? Может ли сам ИИ обладать качествами источника повышенной опасности или речь должна идти о реализации деятельностного подхода, согласно которому под источником повышенной опасности понимается деятельность граждан или юридических лиц, связанных с использованием ИИ?
На наш взгляд, цивилистическая трактовка источника повышенной опасности, связанная с реализацией на практике одного из вышеобозначенных подходов (теории деятельности или теории объекта), применительно к ИИ не может быть реализована в полной мере. Безусловно, ИИ как результат интеллектуальной деятельности, как система технологических решений идеален по своей природе: над его созданием, как правило, работает коллектив, возглавляемый организатором создания ИИ. В этом творческом процессе разработки элементов ИИ (алгоритмов в качестве ноу-хау, технических решений как изобретений, баз данных как сложных или составных объектов и др.) сложно, как считают технические специалисты, в силу объективных причин предусмотреть возможный вредоносный результат в рамках многовариантных запрограммированных разработчиками автоматических действий со стороны создаваемого ИИ.