Искусственный интеллект: угрозы и регулирование в контексте обеспечения информационной безопасности
Annotation
Цель. Поиск механизмов установления юридической ответственности за ущерб, нанесенный системами искусственного интеллекта (далее — ИИ) информационной безопасности. В связи с этим анализируются характеристики ИИ и рассматриваются угрозы, связанные с его использованием. Особое внимание уделяется дифференциации субъектов ответственности и определению вины всех участников производственного цикла систем искусственного интеллекта. Методология. Диалектический метод познания объективной действительности, системный анализ, а также современные положения информатики, касающиеся ИИ. В процессе исследования были использованы также общенаучные и частнонаучные методы познания: анализ, синтез, описание, сравнительно-правовой, формальноюридический, историко-правовой и др. Выводы. Процесс разработки технологий ИИ в интересах информационной безопасности требует жесткого (hard law) правового регулирования. Ключевым аспектом такого регулирования выступает формирование механизмов уголовной ответственности лиц, задействованных в производственном цикле систем искусственного интеллекта в случае нанесения ущерба информационной безопасности. Научная и практическая значимость. Рассмотрена задача минимизации угроз искусственного интеллекта в контексте обеспечения информационной безопасности. Предлагаются конкретные механизмы юридической ответственности, в частности акцентируется внимание на использовании института неосторожного сопричинения вреда в случае уголовно наказуемых деяний.
| Type | Article |
| Information | Juridical Education and Science № 10/2025 |
| Pages | 34-41 |
| DOI | 10.18572/1813-1190-2025-10-34-41 |
