Субъекты ответственности за вред, причиненный искусственным интеллектом, в сфере биоправ и биотехнологий
Аннотация
В статье рассматривается вопрос о существе искусственного интеллекта (далее — ИИ); представляются основные правовые проблемы, связанные с его созданием и использованием в сфере биоправ; представленные проблемы классифицируются. Рассматриваются три группы причин возникновения вреда при использовании ИИ: порок базы знаний, порок нейросети и порок пользования. Автор выделяет зоны ответственности лиц, участвующих в функционировании ИИ (составитель базы знаний, разработчик ИИ, пользователь ИИ) и делает вывод о характере и пределах их ответственности в зависимости от их роли.
Ключевые слова
| Тип | Статья |
| Издание | Государственная власть и местное самоуправление № 11/2025 |
| Страницы | 20-23 |
| DOI | 10.18572/1813-1247-2025-11-20-23 |
Развитие искусственного интеллекта (далее — ИИ) планомерно привело к созданию такого подвида ИИ, как генеративный искусственный интеллект (далее — ГИИ). ГИИ отличается от ИИ тем, что он prima facie самостоятельно создает цифровые объекты — тексты, изображения, аудиофайлы, химические формулы, чертежи (например, протезов), генетические цепочки и проч. (обобщенно — контент). ГИИ может создавать объекты, мало отличимые от человеческих. Поэтому сфера ИИ является высокопотенциальной и развивается экспоненциально. В сфере биотехнологий, как и в других, ГИИ используется все более широко — например, прогнозирует структуры белков для разработки лекарств (AlphaFold) и анализирует симптомы болезней (Ada, SkinVision).
С использованием ГИИ, как и любого другого инструмента, сопряжена возможность причинения вреда. Однако ни в доктрине, ни в практике нет однозначного подхода к субъектам этой ответственности. Единообразия нет и среди различных правопорядков. Так, в европейской доктрине преобладает концепция «электронного лица» и высказываются идеи о наделении ИИ правосубъектностью для целей привлечения к ответственности. В российской доктрине такой подход также имел место, но все чаще появляются мнения о несостоятельности правосубъектности ИИ, с чем мы вынуждены согласиться.
Чтобы понять, как использование ГИИ может причинить вред биоправам, следует обратиться к его механизму работы.
ГИИ — это программа, код которой составлен на основе модели машинного обучения (а именно — глубокого обучения) и которая предназначена для обработки или создания нового цифрового контента. Для создания ГИИ требуется два элемента — база знаний и нейросеть.
База знаний — первый элемент ГИИ — это набор данных (обычно однородных), которые используются для обучения нейросети. Это может быть совокупность изображений, архив текстов, набор химических формул, матрица персональных данных. Содержание базы знаний зависит от цели его создания. По образу и подобию объектов в базе знаний ГИИ будет создавать «новые» объекты. И чем обширнее база знаний ГИИ, тем точнее результаты.
