Алгоритмы и автономия личности: проблема доверия к искусственному интеллекту
Аннотация
В науке описан феномен чрезмерного доверия к решениям, вырабатывать которые помогает алгоритм. Доверие испытывают в основном те, кому алгоритм помогает, то есть в сфере государственного управления речь идет о государственных служащих. Но, с другой стороны, человек, в отношении которого принимается автоматизированное решение, имеет право отказаться от него. Причиной отказа является недостаточное доверие к технологиям. Разрешению такого противоречия способно помочь исследование степени автономии личности при использовании алгоритмов и доверия к ИИ. Корневую проблему недоверия — непрозрачность и непонятность алгоритмов могут разрешить популяризация и объяснения, поощряемые государством, способные повысить осведомленность граждан. Такая работа должна быть выстроена с учетом культурных ориентаций, с различением тех, для кого приоритетом является независимость, и тех, кто обладает высокой нетерпимостью к двусмысленности.
Ключевые слова
Тип | Статья |
Издание | Государственная власть и местное самоуправление № 08/2025 |
Страницы | 8-12 |
DOI | 10.18572/1813-1247-2025-8-8-12 |
В современный период, а именно в самый разгар освоения и внедрения алгоритмических систем ИИ, ведутся активные дискуссии по поводу «человечности» решений, принимаемых с использованием ИИ. В науке давно описан феномен чрезмерного доверия к решениям, вырабатывать которые помогает алгоритм (поскольку, по распространенному мнению, он точный, нейтральный, не ошибается). Такое доверие в основном характерно для лиц, пользующихся технологической поддержкой в своей работе. Но по другую сторону выступают лица, в отношении которых такие решения принимаются, и они, наоборот, часто не согласны и сомневаются в их правильности. Им кажется, что человек — более правильная опора конструкции принятия решения, а технологии они не доверяют. Это противостояние особенно ярко проявляется в государственном управлении: с одной стороны, полномочие государственного служащего на принятие управленческого решения (с использованием ИИ), а с другой — право человека отказаться от принятого в отношении него автоматизированного решения. Разрешению такого противоречия способно помочь исследование степени автономии личности при использовании алгоритмов и доверия к ИИ.
Широкое социотехническое понимание человека и технологии подразумевает, что технология определяет возможности человека к действию, но не сами действия. Использование технологии не может происходить независимо от ее пользователей и окружающего социального и культурного контекстов. В этом смысле пристального внимания заслуживает сфера государственного управления. Мы неоднократно подчеркивали, что использование ИИ в государственном управлении требует особого внимания, поскольку здесь возможны массовые нарушения и конфликты, способные перерасти в глобальный коллапс. Поэтому любые противоречия и двусмысленности должны быть предсказаны, проанализированы, поняты и «препарированы» так, чтобы на каждое нарушение и (или) отклонение имелся продуманный способ их устранения.
Действительно, когда алгоритмы ИИ помогают людям, последние склонны доверять его решениям. Более того, со временем ослабляется критическое мышление в целом. По мере банализации алгоритмических процессов и масштабируемого использования ИИ возникает риск доверия к генерируемой алгоритмами информации как к истине или как к абсолютно нейтральным и правильным решениям, что может усилить существующие или порождать новые структурные неравенства и социальные противоречия.
Если первоначально бытовало убеждение о нейтральности алгоритмов, то в последнее время оно все больше критикуется. Согласно современным, пока еще ограниченным исследованиям, алгоритмы не являются и не могут быть объективными, поскольку они разрабатываются людьми, которые думают, действуют и проектируют в соответствии с личными, организационными, профессиональными и культурными ценностями. Склонность алгоритмов к всевозможным нарушениям, в том числе дискриминации, уже рассматривалась нами подробно. Другая проблема, напрямую связанная с доверием к алгоритмам, — непрозрачность и непонятность их функционирования. Алгоритмическая сложность выходит за рамки технической подкованности пользователей, особенно когда доступ к коду ограничен из-за частной или государственной собственности, когда точность моделей машинного обучения может различаться из-за специфических практик. Не случайно проблема прозрачности алгоритмов сейчас активно исследуется, подчеркивается необходимость понимания процессов, закодированных в алгоритмах (объяснимый ИИ), а также их соответствие принципам прав человека (что выражается в проведении специальной оценки используемого алгоритма на соответствие правам человека).
Использование ИИ в государственном управлении дает видимые преимущества — повышение качества государственных услуг, персонализация, принятие обоснованных решений и более эффективное использование ресурсов при оказании государственных услуг. Но население в целом имеет весьма пространные познания и представления об ИИ. И здесь только популяризация и объяснения, поощряемые государством, способны повысить осведомленность граждан. Главное — выстроить такую работу продуманно.