Примеры того, как в вынесении административных решений принимают участие алгоритмы, множатся. Однако процесс их использования остается неурегулированным. Для юридической оценки результатов решений алгоритмов и последующего правового регулирования важно разграничивать системы автоматизированного принятия решений и системы машинного обучения. Но если перспективы использования алгоритмов как судами, так и исполнительной властью кажутся очевидными, то такое использование должно непременно учитывать и возможные риски и минусы. Особенно это касается алгоритмов машинного обучения. Во-первых, принятие решений в отношении человека неминуемо выводит на проблему скоринга, имеющую не только этическое, но и юридическое измерение. Во-вторых, существует проблема ошибок алгоритмов. Статистическое решение, даже основанное на работающем алгоритме, может быть неверным. Статистика с помощью исчисления вероятности, даже если применяется к массе случаев, ведет не к определенным выводам, а к вероятным. Это значит, что персонализированное решение алгоритма машинного обучения не может быть окончательным, а должно «санкционироваться» человеком. Отсюда вытекает неизбежность человеческого контроля.