Дата публикации: 13.11.2025

Субъекты ответственности за вред, причиненный искусственным интеллектом, в сфере биоправ и биотехнологий

Аннотация

В статье рассматривается вопрос о существе искусственного интеллекта (далее — ИИ); представляются основные правовые проблемы, связанные с его созданием и использованием в сфере биоправ; представленные проблемы классифицируются. Рассматриваются три группы причин возникновения вреда при использовании ИИ: порок базы знаний, порок нейросети и порок пользования. Автор выделяет зоны ответственности лиц, участвующих в функционировании ИИ (составитель базы знаний, разработчик ИИ, пользователь ИИ) и делает вывод о характере и пределах их ответственности в зависимости от их роли.




Развитие искусственного интеллекта (далее — ИИ) планомерно привело к созданию такого подвида ИИ, как генеративный искусственный интеллект (далее — ГИИ). ГИИ отличается от ИИ тем, что он prima facie самостоятельно создает цифровые объекты — тексты, изображения, аудиофайлы, химические формулы, чертежи (например, протезов), генетические цепочки и проч. (обобщенно — контент). ГИИ может создавать объекты, мало отличимые от человеческих. Поэтому сфера ИИ является высокопотенциальной и развивается экспоненциально. В сфере биотехнологий, как и в других, ГИИ используется все более широко — например, прогнозирует структуры белков для  разработки лекарств (AlphaFold) и анализирует симптомы болезней (Ada, SkinVision).

С использованием ГИИ, как и любого другого инструмента, сопряжена возможность причинения вреда. Однако ни в доктрине, ни в практике нет однозначного подхода к субъектам этой ответственности. Единообразия нет и среди различных правопорядков. Так, в европейской доктрине преобладает концепция «электронного лица» и высказываются идеи о наделении ИИ правосубъектностью для целей привлечения к ответственности. В российской доктрине такой подход также имел место, но все чаще появляются мнения о несостоятельности правосубъектности ИИ, с чем мы вынуждены согласиться.

Чтобы понять, как использование ГИИ может причинить вред биоправам, следует обратиться к его механизму работы.

ГИИ — это программа, код которой составлен на основе модели машинного обучения (а именно — глубокого обучения) и которая предназначена для обработки или создания нового цифрового контента. Для создания ГИИ требуется два элемента — база знаний и нейросеть.

База знаний — первый элемент ГИИ — это набор данных (обычно однородных), которые используются для обучения нейросети. Это может быть совокупность изображений, архив текстов, набор химических формул, матрица персональных данных. Содержание базы знаний зависит от цели его создания. По образу и подобию объектов в базе знаний ГИИ будет создавать «новые» объекты. И чем обширнее база знаний ГИИ, тем точнее результаты.

Список литературы

1. Балалаева Ю.С. Проблема определения субъектов юридической ответственности за вред, причиненный искусственным интеллектом: анализ путей решения / Ю.С. Балалаева // Вестник Санкт-Петербургского университета МВД России. 2023. № 3 (99). С. 10–19.
2. Морхат П.М. Правосубъектность юнитов искусственного интеллекта и ответственность за их действия / П.М. Морхат // Право и государство: теория и практика. 2017. № 11 (155). С. 30–36.
3. Симонян С.А. Необходимость и проблемы правосубъектности искусственного интеллекта / С.А. Симонян, А.С. Гамбарян // Юридическая техника. 2021. № 15. С. 237–240.
4. Čerka P. Liability for damages caused by artificial intelligence / P. Čerka, J. Grigiené, G. Sirbikyté // Computer Law & Security Review. 2015. Vol. 31. Iss. 3. P. 376–389.
5. Guessous N. Non-discrimination and Stigmatization / N. Guessous // Handbook of Global Bioethics / eds. by Henk A.M.J. ten Have, B. Gordijn. Dordrecht : Springer, 2013. P. 139–151.
6. Heaven W.D. Predictive policing algorithms are racist. They need to be dismantled / W.D. Heaven // MIT Technology Review. 2020. 17 July.

Остальные статьи