Дата публикации: 03.10.2024

Право лица, ищущего работу, на объяснение при принятии решения с помощью автоматизированной обработки

Аннотация

Повсеместное использование технологий алгоритмического принятия решений и их внедрение работодателями и кадровыми агентствами для оптимизации поиска персонала в разы увеличивают вероятность дискриминации и необоснованного отказа в приеме на работу. В этой связи представляется необходимым закрепить в ТК РФ правила применения алгоритмических технологий при принятии решений с целью обеспечения реализации и защиты прав и законных интересов лиц, ищущих работу.




Развитие технологий искусственного интеллекта (ИИ, алгоритмические системы, автоматизированные системы) помимо, безусловно, положительного эффекта для разных сфер жизни общества имеет обратную сторону, создающую угрозу для реализации прав человека. В литературе обращено внимание на то, что принятие решений (при помощи) ИИ может снизить уровень жизни человека, препятствуя ему в получении социальных благ, в том числе при устройстве на работу. Аналогичные предостережения можно увидеть в Руководстве по автоматизированному индивидуальному принятию решений и профилированию для целей Регламента (GDPR) 2016/679, согласно которому профилирование может увековечить существующие стереотипы и социальную сегрегацию. Связано это с выявленными фактами предвзятости, дискриминации, нарушения права на частную жизнь и защиту данных.

Право на труд особо выделено в контексте реализации принципа защиты прав и свобод человека в Национальной стратегии развития искусственного интеллекта на период до 2030 г. (далее — Стратегия). В результате работы алгоритмических систем доступ работника к труду может быть затруднен или вовсе заблокирован. Подобное происходит из-за слабого правового регулирования, а также отсутствия полного контроля за работой ИИ со стороны человека ввиду неисследованных аспектов работы ИИ, а также вызывающих тревогу фактов выхода из-под контроля человека и намеренного обмана со стороны запрограммированного ИИ, который должен быть честным.

Правовое регулирование принятия решений на основании автоматизированной обработки персональных данных в российском законодательстве характеризуется незрелостью и фрагментарностью, что дает возможность работодателям (операторам) практически свободно решать экономические и производственные задачи в ущерб правам и законным интересам лиц, ищущих работу, на доступ к труду и защите от дискриминации (ст. 64 ТК РФ, ч. 3 ст. 1 Конвенции МОТ № 111 от 25 июня 1958 г. «Относительно дискриминации в области труда и занятий»).

Одним из наиболее важных вопросов в исследуемой области, на наш взгляд, является фиксирование принципа прозрачности и права на объяснение, который получил закрепление в большинстве международных нормативных актов в сфере регулирования ИИ. В соответствии с проектом закона ЕС об ИИ принцип прозрачности обязателен для высокорискованных систем ИИ, которыми признаются, в том числе, используемые в сфере трудоустройства, управления работниками и доступа к самозанятости (например, программное обеспечение для сортировки резюме при приеме на работу). Предусмотрена обязанность поставщика обеспечить достаточную степень прозрачности работы системы ИИ с высоким уровнем риска (п. 2 ст. 1, п. 1 ст. 13): т.е. она должна проектироваться таким образом, чтобы гарантировать, что ее работа достаточно прозрачна, чтобы позволить интерпретировать выходные данные системы и использовать их надлежащим образом.

Список литературы

1. Крылов И.В. Применение работодателем систем искусственного интеллекта для оценки деловых качеств при подборе персонала: дискриминационные риски / И.В. Крылов // Трудовое право в России и за рубежом. 2023. № 2. С. 6–9.
2. Фаллетти Э. Алгоритмическая дискриминация и защита неприкосновенности частной жизни / Э. Фаллетти // Journal of Digital Technologies and Law. 2023. № 1 (2). Р. 387–420. URL: <a href="https://doi.org/10.21202/jdtl.2023.16" target="_blank">https://doi.org/10.21202/jdtl.2023.16</a> (дата обращения: 23.05.2024).
3. Харитонова Ю.С. Правовые средства обеспечения принципа прозрачности искусственного интеллекта / Ю. С. Харитонова // Журнал цифровых технологий. 2023. № 1 (2). С. 337–358.
4. Goodman, B. European Union Regulations on Algorithmic Decision-Making and a «Right to Explanation» / B. Goodman, S. Flaxman // ICML Workshop on Human Interpretability in Machine Learnin. 2016. Vol. 3. AI Magazine. 2017. Vol. 50. URL: <a href="https://arxiv.org/abs" target="_blank">https://arxiv.org/abs</a>
5. Petrs, U. Cultural Bias in Explainable AI Research: A Systematic Analysis / U. Petrs, M. Carman // Journal of Artificial Itelligence Research. 2024. Vol. 79. P. 971–1000. URL: <a href="https://doi.org/10.1613/jair.1.14888" target="_blank">https://doi.org/10.1613/jair.1.14888</a> (дата обращения: 20.05.2024).
6. Satell, G. We need artificial intelligence that is explainable, auditable and transparent / G. Satell, J. Sutton // BusinessMirror. 2019. 4 November.
7. Selbst, A.D. Meaningful information and the right to explanation / A.D. Selbst, J. Powles // International Data Privacy Law. 2017. Vol. 7. Iss. 4. P. 233–242.
8. Tsakalakis, N. The Dual Function of Explanations: Why Computing Explanations is of Value / N. Tsakalakis, S. Stalla-Bourdillon, L. Carmichael [et al.] // Data protection and privacy. Enforcing rights in a changing world / ed. by D. Hallinan, R. Leenes and

Остальные статьи