Цель. Поиск механизмов установления юридической ответственности за ущерб, нанесенный системами искусственного интеллекта (далее — ИИ) информационной безопасности. В связи с этим анализируются характеристики ИИ и рассматриваются угрозы, связанные с его использованием. Особое внимание уделяется дифференциации субъектов ответственности и определению вины всех участников производственного цикла систем искусственного интеллекта.
Методология. Диалектический метод познания объективной действительности, системный анализ, а также современные положения информатики, касающиеся ИИ. В процессе исследования были использованы также общенаучные и частнонаучные методы познания: анализ, синтез, описание, сравнительно-правовой, формальноюридический, историко-правовой и др.
Выводы. Процесс разработки технологий ИИ в интересах информационной безопасности требует жесткого (hard law) правового регулирования. Ключевым аспектом такого регулирования выступает формирование механизмов уголовной ответственности лиц, задействованных в производственном цикле систем искусственного интеллекта в случае нанесения ущерба информационной безопасности.
Научная и практическая значимость. Рассмотрена задача минимизации угроз искусственного интеллекта в контексте обеспечения информационной безопасности. Предлагаются конкретные механизмы юридической ответственности, в частности акцентируется внимание на использовании института неосторожного сопричинения вреда в случае уголовно наказуемых деяний.