Вопросы юридической ответственности при использовании искусственного интеллекта в управлении боевыми действиями
Аннотация
В статье анализируются правовые последствия использования искусственного интеллекта в системах управления боевыми действиями, осуществляющими их централизованное планирование и координацию. Изучается характер и способ возмещения вреда, нанесенного некомбатантам и имуществу третьих лиц в результате принятия решения робототехническим комплексом в автономном режиме без участия человека. Автором производится компаративный анализ зарубежных новелл по вопросам юридической ответственности, связанной с использованием искусственного интеллекта в управлении боевыми действиями, в частности, американского подхода, основанного на концепции «сопутствующего ущерба». Предлагаются законодательные новеллы, призванные адаптировать правоприменительную сферу к новым практикам внедрения искусственного интеллекта в системы управления боевыми действиями.
Ключевые слова
Тип | Статья |
Издание | Военно-юридический журнал № 05/2024 |
Страницы | 11-16 |
DOI | 10.18572/2070-2108-2024-5-11-16 |
Экспоненциальное развитие точек внедрения систем генеративного искусственного интеллекта (далее – также AGI) в различные отрасли экономики и их использование в ходе реализации военных доктрин ряда государств являются не только технологической проблемой, но и порождают вопросы гуманитарного, этического, репутационного и юридического характера. Связанные, в том числе, с проблемами юридической ответственности при использовании AGI в управлении боевыми действиями (MDC – Multi-Domain Command and Control – англ.) и возможными жертвами среди мирного населения вследствие принятых искусственным интеллектом тактических решений.
Прежде всего, речь идет о выполнении тех или иных действий машиной без непосредственного контроля физического лица – оператора, на основе используемых генеративных алгоритмов и симбиотического человеко-машинного интеллекта. Ряд авторов называет подобные формации AGI «особым классом систем искусственного интеллекта, способных самостоятельно идентифицировать цель и, используя бортовую систему вооружения, атаковать и уничтожить ее без взаимодействия с человеком».
В качестве примера можно привести описанное изданием New Scientist убийство человека без получения приказа. Сообщалось, что ударный квадрокоптер турецкого производства, находясь в автономном режиме, атаковал человека в ходе гражданской войны в Ливии в марте 2020 г., и этот прецедент стал первым, когда искусственный интеллект принял самостоятельное решение о ликвидации противника.
Стоит отметить также, что разработка отдельных технологий, связанных с использованием искусственного интеллекта, в оперативно-стратегическом звене отечественных Вооруженных Сил началась еще в 70-е годы и с того момента критически важных качественных изменений, обеспечивающих полноценную замену человека AGI, не фиксировалось. В качестве примера внедрения системы искусственного интеллекта в боеспособные единицы техники можно привести противокорабельную ракету П-700 «Гранит», созданную в ОКБ-52 в 70-е годы и поступившую на вооружение ВМФ России в 1983 г. Как сообщается, ракеты данного орудия способны определять состав и численность групповой цели, а также опознавать тип корабельного отряда и выявлять в нем основные объекты. Также в автоматическом режиме производится распределение целей между ракетами и построение атаки. Аналогичные возможности имеет и ракетный комплекс П-800 «Оникс».
В настоящее время Фондом перспективных исследований в рамках проекта «Маркер» осуществляется разработка экспериментальной роботехнической платформы совместно с НПО «Андроидная техника»; сообщается, что «эволюция современных наземных робототехнических комплексов военного назначения идет по пути наращивания возможностей выполнения задач в автономном режиме с постепенным снижением задействования оператора в процессе управления ими».