Дата публикации: 07.08.2025

Алгоритмы и автономия личности: проблема доверия к искусственному интеллекту

Аннотация

В науке описан феномен чрезмерного доверия к решениям, вырабатывать которые помогает алгоритм. Доверие испытывают в основном те, кому алгоритм помогает, то есть в сфере государственного управления речь идет о государственных служащих. Но, с другой стороны, человек, в отношении которого принимается автоматизированное решение, имеет право отказаться от него. Причиной отказа является недостаточное доверие к технологиям. Разрешению такого противоречия способно помочь исследование степени автономии личности при использовании алгоритмов и доверия к ИИ. Корневую проблему недоверия — непрозрачность и непонятность алгоритмов могут разрешить популяризация и объяснения, поощряемые государством, способные повысить осведомленность граждан. Такая работа должна быть выстроена с учетом культурных ориентаций, с различением тех, для кого приоритетом является независимость, и тех, кто обладает высокой нетерпимостью к двусмысленности.




В современный период, а именно в самый разгар освоения и внедрения алгоритмических систем ИИ, ведутся активные дискуссии по поводу «человечности» решений, принимаемых с использованием ИИ. В науке давно описан феномен чрезмерного доверия к решениям, вырабатывать которые помогает алгоритм (поскольку, по распространенному мнению, он точный, нейтральный, не ошибается). Такое доверие в основном характерно для лиц, пользующихся технологической поддержкой в своей работе. Но по другую сторону выступают лица, в отношении которых такие решения принимаются, и они, наоборот, часто не согласны и сомневаются в их правильности. Им кажется, что человек — более правильная опора конструкции принятия решения, а технологии они не доверяют. Это противостояние особенно ярко проявляется в государственном управлении: с одной стороны, полномочие государственного служащего на принятие управленческого решения (с использованием ИИ), а с другой — право человека отказаться от принятого в отношении него автоматизированного решения. Разрешению такого противоречия способно помочь исследование степени автономии личности при использовании алгоритмов и доверия к ИИ.

Широкое социотехническое понимание человека и технологии подразумевает, что технология определяет возможности человека к действию, но не сами действия. Использование технологии не может происходить независимо от ее пользователей и окружающего социального и культурного контекстов. В этом смысле пристального внимания заслуживает сфера государственного управления. Мы неоднократно подчеркивали, что использование ИИ в государственном управлении требует особого внимания, поскольку здесь возможны массовые нарушения и конфликты, способные перерасти в глобальный коллапс. Поэтому любые противоречия и двусмысленности должны быть предсказаны, проанализированы, поняты и «препарированы» так, чтобы на каждое нарушение и (или) отклонение имелся продуманный способ их устранения.

Действительно, когда алгоритмы ИИ помогают людям, последние склонны доверять его решениям.  Более того, со временем ослабляется критическое мышление в целом. По мере банализации алгоритмических процессов и масштабируемого использования ИИ возникает риск доверия к генерируемой алгоритмами информации как к истине или как к абсолютно нейтральным и правильным решениям, что может усилить существующие или порождать новые структурные неравенства и социальные противоречия.

Если первоначально бытовало убеждение о нейтральности алгоритмов, то в последнее время оно все больше критикуется. Согласно современным, пока еще ограниченным исследованиям, алгоритмы не являются и не могут быть объективными, поскольку они разрабатываются людьми, которые думают, действуют и проектируют в соответствии с личными, организационными, профессиональными и культурными ценностями. Склонность алгоритмов к всевозможным нарушениям, в том числе дискриминации, уже рассматривалась нами подробно. Другая проблема, напрямую связанная с доверием к алгоритмам, — непрозрачность и непонятность их функционирования. Алгоритмическая сложность выходит за рамки технической подкованности пользователей, особенно когда доступ к коду ограничен из-за частной или государственной собственности, когда точность моделей машинного обучения может различаться из-за специфических практик. Не случайно проблема прозрачности алгоритмов сейчас активно исследуется, подчеркивается необходимость понимания процессов, закодированных в алгоритмах (объяснимый ИИ), а также их соответствие принципам прав человека (что выражается в проведении специальной оценки используемого алгоритма на соответствие правам человека).

Использование ИИ в государственном управлении дает видимые преимущества — повышение качества государственных услуг, персонализация, принятие  обоснованных решений и более эффективное использование ресурсов при оказании государственных услуг. Но население в целом имеет весьма пространные познания и представления об ИИ. И здесь только популяризация и объяснения, поощряемые государством, способны повысить осведомленность граждан. Главное — выстроить такую работу продуманно.

Список литературы

1. Возможности применения искусственного интеллекта в государственном управлении и юридические экспертизы / Э.В. Талапина, В.Н. Южаков, А.А. Ефремов, И.А. Черешнева. Москва : Издательский дом «Дело» РАНХиГС, 2022. 190 с.
2. Талапина Э.В. Обработка данных при помощи искусственного интеллекта и риски дискриминации / Э.В. Талапина // Право. Журнал Высшей школы экономики. 2022. № 1. С. 4–27.
3. Cook T.E The Skeptical American: Revisiting the Meanings of Trust in Government and Confidence in Institutions / T.E. Cook, P. Gronke // The Journal of Politics. 2005. Vol. 67(3). P. 784–803.
4. Drydakis N. Artificial intelligence and reduced SMEs’ business risks. A dynamic capabilities analysis during the COVID-19 pandemic / N. Drydakis // Information Systems Frontiers. 2022. Vol. 24. P. 1223–1247.
5. Dugas M.J. Intolerance of uncertainty and information processing: evidence of biased recall and interpretations / M.J. Dugas, M. Hedayati, A. Karavidas [et al.] // Cognitive Therapy and Research. 2005. Vol. 1(29). P. 57–70.
6. Favaretto M. Big data and discrimination: Perils, promises and solutions. A systematic review / M. Favaretto, E. De Clercq, B.S. Elger // Journal of Big Data. 2019. Vol. 6(1). P. 12. DOI:10.1186/s40537-019-0177-4
7. Khayer A. The Adoption of cloud computing in small and medium enterprises: a developing country perspective / A. Khayer, N. Jahan, Md N. Hossain, Md.Y. Hossain // VINE Journal of Information and Knowledge Management Systems. 2020. Vol. 51. P. 64–91.
8. Lerma D.F.P. Influence of Personal Cultural Orientations in Artificial Intelligence Adoption in Small and Medium-Sized Enterprises / D.F. Plata Lerma, M.A. Kwarteng, M. Pílik // New Sustainable Horizons in Artificial Intelligence and Digital Solutions / e
9. Mehta A. The Influence of Values on the Adoption of Educational Technology : PhD thesis / A. Mehta. The University of Leeds, 2018. 299 p.
10. Papacharissi Z. Predictors of Internet use / Z. Papacharissi, A.M. Rubin // Journal of Broadcasting & Electronic Media. 2000. Vol. 44. Iss. 2. P. 175–196.
11. Robinson S.C. Trust, transparency, and openness: how inclusion of cultural values shapes Nordic national public policy strategies for artificial intelligence / S.C. Robinson // Technology in Society. 2020. Vol. 63. Art. 101421.
12. Schmager S. Designing for AI Transparency in Public Services: A User-Centred Study of Citizens’Preferences / S. Schmager, S. Gupta, I. Pappas, P. Vassilakopoulou // HCI in Business, Government and Organizations. 11th International Conference, HCIBGO 2024.
13. Schwartz S. A theory of cultural value orientations: explication and applications / S. Schwartz // Comparative Sociology. 2006. Vol. 5. Iss. 2–3. P. 137–182.
14. Sharma P. Measuring personal cultural orientations: scale development and validation / P. Sharma // Journal of The Academy of Marketing Science. 2010. Vol. 38. Iss. 6. P. 787–806.
15. Tam C. Does culture influence m-banking use and individual performance? / C. Tam, T. Oliveira // Information & Management. 2019. Vol. 56. Iss. 3. P. 356–363.
16. Zhang A. Exploring culture factors affecting the adoption of mobile payment / A. Zhang, X. Yue, Y. Kong // Proceedings — 2011 10th International Conference on Mobile Business, ICMB 2011. P. 263–267.

Остальные статьи