О гражданско-правовом положении и некоторых проблемах правового регулирования искусственного интеллекта
Аннотация
Проанализировано несколько примеров существующих и теоретически возможных в будущем правовых проблем, которые имеют место в процессе применения искусственного интеллекта физическими и юридическими лицами. Установлено, что разработчики искусственного интеллекта и те лица, которые внедряют программы, основанные на машинном обучении, на практике должны не только ответственно подходить к решению вопросов обслуживания систем искусственного интеллекта, но и понимать, что результат машинного творчества должен находиться (а во многих случаях уже находится) под гражданско-правовой защитой. В связи с этим сегодня значимым вопросом развития в сфере искусственного интеллекта является повышение прозрачности алгоритмов и расширение возможностей по их проверке. Высказано предположение о том, что «сильный» ИИ в будущем может стать полноценным участником гражданских правоотношений.
Ключевые слова
Тип | Статья |
Издание | Гражданское право № 03/2024 |
Страницы | 6-10 |
DOI | 10.18572/2070-2140-2024-3-6-10 |
Сегодня ученые-юристы задаются вопросом, как на сегодняшний день стоит определять искусственный интеллект: как субъект или объект правоотношений. Цель настоящей работы состоит в попытке охарактеризовать гражданско-правовое положение искусственного интеллекта на сегодняшний день и выявить некоторые актуальные проблемы правового регулирования искусственного интеллекта (далее — ИИ).
Этические правила и некоторые законы робототехники формулировались писателями-фантастами, философами и учеными задолго до появления подобных технологий. Согласно устоявшимся доктринальным представлениям, искусственный интеллект — это и направление исследований в современной науке, и высокотехнологичный способ автоматизации труда. Искусственный интеллект в целом — это мультифункциональное междисциплинарное понятие, содержание которого очень сильно зависит от контекста и области применения этой технологии. Ученые создают «умные» устройства и программы, которые частично имитируют работу нашего мозга и выполняют интеллектуальные задачи.
Значительную часть человеческого труда уже можно делегировать искусственному интеллекту в образовании, переводческой деятельности, обработке научной информации и т.д. В связи с этим актуализируются вопросы авторского права. Уже известны случаи, когда разработчики нейросетей массово нарушали авторские права, используя чужие работы для машинного обучения без ведома и согласия авторов. Однако имеющиеся научные работы, исследующие вопросы авторского права применительно к искусственному интеллекту, как правило, рассматривают правовой статус продуктов творчества искусственного интеллекта, не касаясь проблемы нарушения авторских прав людей в процессе машинного обучения.
Приведем казуальные примеры из практики. Фотоагентство Getty Images подало в Лондонский суд иск к компании Stability AI. Фотобанк считает, что разработчик незаконно скопировал и использовал для обучения нейросети миллионы изображений, защищенных авторским правом. Помимо этого, три художника подали коллективный иск против Stability AI, Deviant Art и Midjourney. Авторы иска утверждают, что ИИ нарушает законы об авторском праве с помощью инструмента, основанного на ИИ, для преобразования текста в изображение Stable Diffusion. Художники отмечают, что нейросеть Stable Diffusion содержит копии миллионов или миллиардов изображений, защищенных авторским правом. Они были сделаны без ведома или согласия создателей. Истцы требуют компенсации и судебных запретов от имени всех художников, пострадавших от алгоритма Stable Diffusion.
Может показаться, что здесь защита авторских прав должна осуществляться в обычном режиме, установленном гражданским правом. Однако сфера машинного обучения достаточно нова, и во многих законодательствах нет указаний на то, что защита авторских прав распространяется и на деятельность искусственного интеллекта, и на отношения «человек — машина» в целом. К сожалению, «искусственный интеллект уже применяется мошенниками для реализации и других противоправных схем в Интернете: для распространения дезинформации, для дискредитации, запугивания, обмана отдельных людей. Все эти злоупотребления также требуют проработки со стороны законодательства и правоохранительных органов». Кроме того, нейросети используют обрабатываемую информацию непредсказуемо, могут выдавать противоправные результаты, в которых может быть найден цифровой след человека, чьи работы использовались при обучении нейросети, что может повлечь негативные последствия для таких авторов.