Судебное речеведение в эпоху цифровизации
Аннотация
В условиях глобальной цифровой трансформации всех сфер жизни общества противодействие преступлениям, совершаемым с использованием современных технологий, в частности нейросетевого моделирования, существенно усложняется. Расширение сферы применения технологий искусственного интеллекта, в том числе обеспечивающих преобразование голоса, речи, текста и т.д., обусловило появление новых видов преступлений и качественно новых видов объектов экспертного исследования. Речь и текст как продукты интеллектуальной деятельности конкретного лица представляют собой сложную многокомпонентную структуру. В статье указаны актуальные направления развития судебного речеведения, обусловленные необходимостью экспертного исследования цифрового контента.
Ключевые слова
| Тип | Статья |
| Издание | Эксперт-криминалист № 01/2026 |
| Страницы | 18-20 |
| DOI | 10.18572/2072-442X-2026-1-18-20 |
Высокотехнологичность преступлений XXI в. обусловила значимость применения в криминалистике средств и методов прикладной лингвистики, прежде всего, посредством производства лингвистической, автороведческой, фоноскопической экспертиз. Междисциплинарный характер исследований речевой деятельности человека обусловливается существенным видоизменением и расширением концепта «коммуникация» в эпоху глобальной цифровизации: свободный доступ к нейросетям приводит к постоянной модификации и совершенствованию способов совершения противоправных действий злоумышленниками. Сегодня речеведение, «охватывая все сферы деятельности человека, связанные с его коммуникативной, творческой, профессионально-деловой, социальной активностью, становится питательной средой для интегративного использования знаний о речевой деятельности и ее и следах». Как показывает экспертная, следственная, судебная практика, в современных условиях зафиксированное на материальном носителе коммуникативное событие, содержащее криминалистически значимую информацию, все чаще становится одним из основных доказательств по делу, позволяя установить необходимые фактические данные.
Проблема информационных войн не нова для общества. Однако в настоящее время с учетом развития цифровых технологий проблема обеспечения медиабезопасности приобретает иные масштабы. Правонарушения, совершаемые в последние несколько лет посредством использования технологий искусственного интеллекта, чрезвычайно разнообразны: мы не можем доверять голосу, мы не можем доверять видеоизображениям, мы не можем доверять текстам — более половины контента в Интернете сгенерировано посредством использования технологий искусственного интеллекта. Многократная цифровая обработка первичного текста (устного или письменного), исходящего от конкретного автора, наносит серьезный ущерб первичной лингвистической информации, служащей основой при проведении криминалистических экспертиз. В связи с этим большую актуальность применительно к производству фоноскопических, автороведческих и лингвистических экспертиз приобретает процесс пополнения традиционных признаков описания текста и звучащей речи сведениями о значимых параметрах текстов и голоса, прошедших цифровую обработку.
Сложность решения задач, стоящих перед криминалистической фоноскопией, легко проиллюстрировать на примере изучения фейковых голосовых сообщений. Проблема технического исследования цифровых фонограмм как одна из основных задач судебной акустики по обнаружению признаков монтажа и иных изменений, внесенных в звукозапись, решается в экспертных подразделениях на основе комплексного анализа речевого сигнала. При этом на повестке дня в настоящее время стоит качественно новый и технически более сложный вопрос исследования речевых сигналов, преобразованных с использованием искусственного интеллекта (ИИ).
В последние два-три года одной из актуальнейших тем для исследования во многих странах стала проблема так называемых дипфейков. Дипфейк (deepfake, от deep learning — «глубокое обучение» и fake — «подделка») — технология, основанная на алгоритмах ИИ, которая позволяет создавать поддельные изображения, видео- и аудиозаписи. Суть технологии заключается в использовании глубоких нейронных сетей для замены лица, голоса или даже мимики одного человека на данные другого, что создает иллюзию достоверности. Для подделки голоса применяются алгоритмы (так называемые автокодировщики), анализирующие звуковые паттерны, тональность и акценты, чтобы воспроизвести голос другого человека. На вход модели подаются две аудиозаписи, из первой выделяется, что было сказано, из второй извлекаются глобальные характеристики «целевого» голоса — сжатые представления того, что и как должно быть сказано, объединяются, а затем с помощью декодера генерируется результат — содержание первой фонограммы «озвучивается» голосом человека из второй звукозаписи.
Задача по распознаванию дипфейков входит в отдельную категорию. Эта проблема является на сегодняшний день крайне сложной. Одним из подходов к выявлению аудиодипфейков является поиск отклонений в частотах голоса или подозрительно ровный просодический рисунок (перцептивно воспринимается как монотонная интонация). Несмотря на определенные успехи в области обнаружения «цифровых отпечатков», оставляемых генераторами звука, защита пока «отстает» от стремительного развития технологий генерации дипфейков.
