Дата публикации: 27.03.2025

Кибербезопасность и правовая защита информации от угроз искусственного интеллекта

Аннотация

Появление искусственного интеллекта (далее – ИИ) открыло как беспрецедентные возможности, так и серьезные проблемы в области кибербезопасности. В то время как ИИ расширяет возможности защиты, такие как обнаружение аномалий, интеллектуальная аналитика и автоматическое реагирование на угрозы, он также предоставляет киберпреступникам передовые инструменты для проведения сложных атак, включая фишинг, управляемый ИИ, глубокие подделки и вредоносные программы-обходчики. В этой статье рассматривается двойная роль ИИ в кибербезопасности, выделяются уязвимости, создаваемые киберугрозами, дополненными ИИ, и рассматриваются текущие меры защиты. В ней также рассматриваются ограничения существующих правовых рамок, которые с трудом поспевают за стремительным развитием ИИ. Ключевые законодательные инициативы, такие как Закон Европейского союза об искусственном интеллекте и проект Билля о правах в области искусственного интеллекта в США, оцениваются на предмет их эффективности в борьбе с рисками кибербезопасности, связанными с ИИ. В статье подчеркивается необходимость разработки всеобъемлющих международных правовых стандартов, увеличения инвестиций в исследования в области кибербезопасности, связанные с ИИ, и совместного подхода технологических экспертов и регулирующих органов к устранению возникающих угроз, связанных с ИИ. В заключение в ней содержится призыв к активному, адаптивному подходу как к технологическим, так и к правовым мерам защиты информационной безопасности от текущих и будущих угроз, связанных с ИИ.




Стремительное развитие искусственного интеллекта (далее – ИИ) трансформировало кибербезопасность как инструмент защиты, и как новое направление борьбы с угрозами. В кибербезопасности ИИ стал незаменимым средством для обнаружения угроз. ИИ (основанный на принципе машинного обучения) обладает способностью обрабатывать большие объёмы данных, позволяя выявить как действующие, так и будущие потенциальные угрозы, такие как нетипичные попытки входа в систему или возможные схемы получения доступа к информации, которые могли ускользнуть от внимания людей, которые занимаются аналитикой данных. Службы безопасности и разведки также осознали потенциал технологий ИИ в продвижении и достижении целей, связанных с национальной и общественной безопасностью.

Несмотря на то, что ИИ может значительно повысить эффективность систем безопасности, но он также создает угрозы абсолютно нового уровня. Злоумышленники стали использовать ИИ для создания вредоносного программного обеспечения (далее – ПО), которое, используя метод машинного обучения, анализируя действие систем безопасности, может адаптироваться для ее обхода, что в значительной мере затрудняет обнаружение вредоносного ПО.

В условиях стремительного развития технологий и появления инновационных проектов в сфере ИИ и анализа данных, а также с ростом объёма информации, которую компании собирают о своих клиентах, всё более остро встаёт вопрос о создании и применении стандартов регулирования.

В сфере беспилотных летательных аппаратов и транспортных средств используются технологии ИИ, в частности системы распознавания лиц. Если этот инструмент на основе ИИ не будет тщательно регулироваться или управляться с соблюдением соответствующих мер безопасности, он может привести к созданию серьёзных этических и юридических проблем. Неправильное использование этой технологии может привести к несанкционированной слежке, несоразмерному преследованию, нарушению неприкосновенности частной жизни и нарушению гражданских свобод. Поэтому для предотвращения возможных нарушений крайне важно создать строгую нормативно-правовую базу и механизмы контроля, чтобы гарантировать, что ИИ разрабатывается и используется таким образом, чтобы соблюдались права человека, прозрачность и подотчётность. Такой подход поможет сбалансировать преимущества ИИ в сфере безопасности с защитой личных свобод и этических норм.

Все специалисты в сфере ИИ, а также политические деятели сходятся во мнении, что в ближайшем будущем необходимо будет разработать и установить чёткие нормы регулирования. По мнению И.А. Филиповой, создание правовой основы, которая будет регулировать взаимодействие с ИИ, во многом зависит от того, насколько успешно государства смогут договориться между собой.

Список литературы

1. Кутейников Д.Л. Ключевые подходы к правовому регулированию использования систем искусственного интеллекта / Д.Л. Кутейников, О.А. Ижаев, С.С. Зенин, В.А. Лебедев // Вестник Тюменского государственного университета. Социально-экономические и правовые иссле
2. Решетникова М.С. Тенденции развития технологий искусственного интеллекта в КНР / М.С. Решетникова, И.А. Пугачева, Ю.Д. Лукина // Вопросы инновационной экономики. 2021. Т. 11. № 1. С. 333–350.
3. Филипова И.А. Правовое регулирование искусственного интеллекта : учебное пособие / И.А. Филипова. Нижний Новгород : Нижегородский госуниверситет, 2020. 90 с.

Остальные статьи