О законодательном регулировании продуцирования, применения и пользования смарт-систем
Аннотация
Появление «генеративного искусственного интеллекта» (ГИИ) привело к принятию в Китае первого нормативного правового акта, регулирующего оказание услуг с его помощью. Для того чтобы регулировать общественные отношения, необходимо знать то, по поводу чего возникают эти отношения, т.е. то, что называют ГИИ. Поэтому такой продукт человеческой деятельности должен быть точно и полно формализован и правильно назван. Кроме того, необходимо определить не только форму и/или содержание носителя, называемого артефактным (искусственным) интеллектом, но и его строение, в том числе его функции, которые могут быть негативными. Учитывая появление тренда на смартизацию, идущего на смену цифровизации, логично использовать термины «смарт-продукт» и «смарт-система». Определены основные свойства смарт-продукта в виде смарт-систем и смарт-медиапродуктов, а также рассмотрены особенности применения смарт-агентов или смарт-акторов. Аргументировано, что применение смарт-систем одними юридическими субъектами против других, добровольное пользование смарт-инструментами и/или использование смарт-объектов людьми без осознания их подлинных свойств создает риски негативного воздействия на них в виде нарушения конституционных свобод, прав и законных интересов.
Тип | Статья |
Издание | Юрист № 06/2024 |
Страницы | 55-60 |
DOI | 10.18572/1812-3929-2024-6-55-60 |
Недавно в Китае (КНР) был принят нормативный правовой акт (меры), регулирующий деятельность по предоставлению услуг на основе генеративного искусственного интеллекта (ГИИ). Поэтому представляет интерес рассмотреть новацию КНР в регулировании правоотношений, возникающих по поводу того, что называют «артефактный (искусственный) интеллект» (ИИ).
Под действие этих мер попадает не деятельность по разработке и некоммерческому применению ГИИ, а только услуги, оказываемые провайдерами (службами, поставщиками) с помощью ГИИ. В определенных случаях оказание таких услуг (сервиса) требует лицензирования. Поставщик отвечает не только за свой контент, но и контент пользователей. Если будет обнаружен незаконный контент, поставщик должен незамедлительно принять меры по прекращению генерации, передачи и удалению незаконного контента, предпринять такие меры, как обучение по оптимизации модели, чтобы исправить это, и сообщить в соответствующие компетентные департаменты.
Отметим, что КНР обращает внимание на прозрачность ГИИ, а также на точность и надежность генерируемого контента. Если поставщик обнаружит, что пользователь использует службу ГИИ для осуществления незаконной деятельности, он должен принять такие меры, как предупреждение, ограничение функций, приостановление или прекращение предоставления ему услуг в соответствии с контрактом, вести соответствующие записи и сообщать в соответствующие компетентные департаменты.
В статье 22 этих мер дается определение: «Технология генеративного искусственного интеллекта относится к моделям и связанным с ними технологиям, которые обладают способностью генерировать контент, такой как текст, изображения, аудио и видео». Из этого следует, что КНР уделяет большое значение моделям данных, т.е. информационным онтологиям предметных областей. Также отметим, что ГИИ еще называют технологиями, системами и сервисами, что говорит о недостаточной терминологизации нормативно-правового акта. В США и ЕС такие системы называют чат-ботами GPT, лингвоботами на основе больших языковых моделей (LLM). Фактически это диалоговые смарт-системы, которые могут отвечать не только на вопросы, но и на запросы пользователей, продуцируя смарт-медиапродукты с текстовым, графическим и/или числовым контентом, а также аудио-, видеоконтентом. Кроме реактивных лингвоботов, появились их активные варианты, которые обучены проявлять активность в виде продуцирования нравящихся ответов пользователям.
О смарт-системах