Появление искусственного интеллекта (далее – ИИ) открыло как беспрецедентные возможности, так и серьезные проблемы в области кибербезопасности. В то время как ИИ расширяет возможности защиты, такие как обнаружение аномалий, интеллектуальная аналитика и автоматическое реагирование на угрозы, он также предоставляет киберпреступникам передовые инструменты для проведения сложных атак, включая фишинг, управляемый ИИ, глубокие подделки и вредоносные программы-обходчики. В этой статье рассматривается двойная роль ИИ в кибербезопасности, выделяются уязвимости, создаваемые киберугрозами, дополненными ИИ, и рассматриваются текущие меры защиты. В ней также рассматриваются ограничения существующих правовых рамок, которые с трудом поспевают за стремительным развитием ИИ. Ключевые законодательные инициативы, такие как Закон Европейского союза об искусственном интеллекте и проект Билля о правах в области искусственного интеллекта в США, оцениваются на предмет их эффективности в борьбе с рисками кибербезопасности, связанными с ИИ. В статье подчеркивается необходимость разработки всеобъемлющих международных правовых стандартов, увеличения инвестиций в исследования в области кибербезопасности, связанные с ИИ, и совместного подхода технологических экспертов и регулирующих органов к устранению возникающих угроз, связанных с ИИ. В заключение в ней содержится призыв к активному, адаптивному подходу как к технологическим, так и к правовым мерам защиты информационной безопасности от текущих и будущих угроз, связанных с ИИ.