ЦИФРОВОЙ СУДЬЯ: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В СУДОПРОИЗВОДСТВЕ ЗАРУБЕЖНЫХ СТРАН И РОССИИ
В настоящей статье исследуется феномен «цифрового судьи» — использования систем искусственного интеллекта (ИИ) для поддержки и автоматизации судебного процесса. Анализируются конкретные модели внедрения ИИ в правосудие: система оценки рецидивизма COMPAS и дело State v. Loomis (США, 2016), проект «судьи-робота» в Эстонии (2019), программа Smart Courts и ИИ-помощник «Сяо Чжи» в Китае, цифровая реформа HMCTS в Великобритании, Civil Resolution Tribunal в Канаде. Рассматриваются правовые и этические проблемы: алгоритмическая предвзятость, проблема «чёрного ящика», противоречие с правом на справедливое судебное разбирательство (ст. 6 ЕКПЧ), Регламент ЕС об ИИ (AI Act, 2024), Этическая хартия CEPEJ (2018). Отдельное внимание уделено российскому опыту: ГАС «Правосудие», пилотным проектам в регионах, позициям руководства Верховного Суда РФ. Автор формулирует вывод о допустимых границах применения ИИ в судопроизводстве и обосновывает необходимость сохранения принципа «человек в контуре».
Цифровая трансформация судебных систем в XXI веке поставила перед юридической наукой и практикой фундаментальный вопрос: может ли искусственный интеллект выполнять функции судьи? Концепция «цифрового судьи» охватывает широкий спектр технологий — от вспомогательных систем анализа судебной практики до автономных алгоритмов, способных выносить решения по существу спора без участия человека.
Актуальность темы обусловлена несколькими факторами. Во-первых, системы ИИ уже применяются в судах десятков государств: к 2025 году ИИ используется в 35% российских судов[1], все китайские суды обязаны создать компетентные системы ИИ к 2025 году[2], а Регламент ЕС об ИИ 2024 года классифицирует судебный ИИ как систему «высокого риска»[3]. Во-вторых, опыт применения алгоритма COMPAS в американском правосудии выявил систематическую расовую предвзятость[4], поставив под сомнение способность алгоритмов обеспечить беспристрастность. В-третьих, нарастает противоречие между стремлением к эффективности правосудия и необходимостью соблюдения фундаментальных прав, закреплённых в ст. 6 Европейской конвенции о защите прав человека (далее — ЕКПЧ).
Целью настоящего исследования является комплексный анализ зарубежного и российского опыта внедрения ИИ в судопроизводство, выявление правовых и этических рисков «цифрового судьи» и формулирование научно обоснованных выводов о допустимых пределах автоматизации правосудия.
[1]35% российских судов используют ИИ // Право.ру. 2025. https://pravo.ru/news/258775/
[2]Beijing Internet Court — Chinese courts must implement AI system by 2025 (December 2022). https://english.bjinternetcourt.gov.cn/2022-12/12/c_593.htm
[3]Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 (EU AI Act). Annex III, п. 8(a). https://artificialintelligenceact.eu/annex/3/
[4]Angwin J. et al. Machine Bias // ProPublica. 23 May 2016. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
1. Система COMPAS и дело State v. Loomis: первый судебный тест алгоритмического правосудия
Система COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), разработанная компанией Northpointe Inc. (ныне Equivant), стала символом дискуссии о «цифровом судье». Алгоритм анализирует ответы на 137-пунктный опросник и данные уголовной истории подсудимого, присваивая оценки риска рецидивизма от 1 до 10. Методология алгоритма является коммерческой тайной (trade secret) и не раскрывается ни суду, ни подсудимому[5]. COMPAS применялся в штатах Нью-Йорк, Висконсин, Калифорния, Флорида и других юрисдикциях.
Ключевым прецедентом стало дело State v. Loomis (881 N.W.2d 749, Wis. 2016). В 2013 году Эрик Лумис был задержан за управление автомобилем, использованным при стрельбе. При вынесении приговора судья апеллировал к оценке COMPAS «высокий риск», и Лумис был приговорён к шести годам лишения свободы. Обвиняемый обжаловал приговор, указывая на нарушение права на приговор на основе точных сведений (due process), права не быть осуждённым на основании пола (алгоритм учитывает гендер) и права на индивидуализированный приговор[6].
Верховный суд Висконсина отклонил апелляцию, однако сформулировал пять существенных оговорок: COMPAS не предназначен для определения тяжести наказания; алгоритм создан для нужд пенитенциарной системы, а не судопроизводства; отсутствуют валидационные исследования для населения Висконсина; имеются данные о непропорциональном присвоении высоких рисков меньшинствам; засекреченность алгоритма препятствует оспариванию его научной обоснованности[7]. Верховный суд США в 2017 году отказал в рассмотрении дела (cert. denied, 137 S.Ct. 2290), оставив вопрос открытым на федеральном уровне[8].
[5]Loomis v. Wisconsin // Wikipedia. (описание системы COMPAS). https://en.wikipedia.org/wiki/Loomis_v._Wisconsin
[6]State v. Loomis, 881 N.W.2d 749 (Wis. 2016) // Harvard Law Review. 2017. Vol. 130. https://harvardlawreview.org/print/vol-130/state-v-loomis/
[7]State v. Loomis // Полный текст решения Верховного суда Висконсина (PDF). https://www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690
[8]Loomis v. Wisconsin // SCOTUSblog. https://www.scotusblog.com/cases/case-files/loomis-v-wisconsin/
Расследование ProPublica (2016), основанное на анализе более 7 000 уголовных дел в округе Бровард (Флорида), продемонстрировало системную расовую предвзятость COMPAS: темнокожие обвиняемые ошибочно классифицировались как «высокий риск» в 44,8% случаев против 23,5% для белых; при этом белые рецидивисты ошибочно получали «низкий риск» в 47,7% случаев против 28% для темнокожих[9]. Общая точность прогноза составила лишь 61%, что сопоставимо с предсказаниями случайных непрофессиональных испытуемых (66,7%) в эксперименте Dressel и Farid (2018).
Принципиально важен «парадокс справедливости» (impossibility theorem): исследователи Chouldechova (2017) и Kleinberg et al. (2016) математически доказали невозможность одновременного достижения равной частоты ложных срабатываний и равной предсказательной точности при различных базовых показателях рецидивизма между группами[10]. Это означает, что алгоритмическая «справедливость» в строгом смысле недостижима, если группы различаются по базовым параметрам, — вывод, имеющий фундаментальное значение для оценки любых систем ИИ в судопроизводстве.
2. Зарубежный опыт внедрения ИИ в судопроизводство
2.1. Эстония: проект «судьи-робота» для малых исков
Эстония, являющаяся одним из наиболее цифровизированных государств мира, предприняла наиболее радикальную попытку создания «цифрового судьи». В 2019 году Министерство юстиции Эстонии поручило Отту Велсбергу (Ott Velsberg), главному директору по данным страны (Chief Data Officer), разработать систему «судьи-робота» для разрешения споров по малым искам на сумму до 7 000 евро[11]. Схема предполагала, что обе стороны загружают документы на платформу, ИИ анализирует материалы и выносит решение, которое может быть обжаловано у судьи-человека.
Проект вызвал значительный международный резонанс[12], однако полного развёртывания не получил: по состоянию на 2020 год он оставался в стадии ранней разработки, столкнувшись со скептицизмом юридического сообщества[13]. По данным исследования 2026 года, охватившего шесть государств ЕС, Эстония лидирует по уровню цифровой зрелости судебной системы (8,4/10) и принятию инструментов предиктивного правосудия (6,0/10)[14]. Опыт Эстонии демонстрирует, что даже в максимально благоприятной цифровой среде переход от вспомогательного ИИ к автономному «цифровому судье» наталкивается на фундаментальные правовые и практические барьеры.
[9]Angwin J., Larson J., Kirchner L., Mattu S. Machine Bias // ProPublica. 23 May 2016. https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
[10]ProPublica — Bias in Criminal Risk Scores is Mathematically Inevitable, Researchers Say. https://www.propublica.org/article/bias-in-criminal-risk-scores-is-mathematically-inevitable-researchers-say
[11]Wired — Can AI Be a Fair Judge in Court? Estonia Thinks So (25 March 2019). https://www.wired.com/story/can-ai-be-fair-judge-court-estonia-thinks-so/
[12]World Economic Forum — Estonia is building a 'robot judge' (26 March 2019). https://www.weforum.org/stories/2019/03/estonia-is-building-a-robot-judge-to-help-clear-legal-backlog/
[13]Harvard International Review — Your Honor, AI (April 2020). https://hir.harvard.edu/your-honor-ai/
[14]AI and digital justice in EU labor law // PMC / Frontiers in AI. 2026. https://pmc.ncbi.nlm.nih.gov/articles/PMC12894374/
2.2. Китай: программа Smart Courts и ИИ-помощник «Сяо Чжи»
Китайская Народная Республика реализует наиболее масштабную в мире программу цифровизации судов — «умные суды» (智慧法院), осуществляемую под руководством Верховного народного суда (ВНС). С 2017 года в Ханчжоу, Пекине и Гуанчжоу действуют три интернет-суда. По официальным данным ВНС на 2021 год, через онлайн-платформу подано 11,4 млн исков (30,9% от общего объёма), проведено 1,275 млн онлайн-заседаний, а единая платформа охватывает более 3 500 судов[15].
Ключевой ИИ-системой является «Сяо Чжи» (小智, Xiao Zhi 3.0) — помощник судьи в Ханчжоуском интернет-суде, запущенный в 2019 году. Система выполняет функции объявления судебных процедур, голосового распознавания, сводки аргументов сторон в реальном времени, оценки доказательств и рекомендаций по присуждению[16]. При первом применении «Сяо Чжи» рассмотрела дело о непогашенном банковском долге с участием десяти ответчиков за 30 минут вместо традиционных десяти отдельных слушаний. Судья-человек сохраняет финальное решение.
Помимо «Сяо Чжи», в КНР применяются система «206» (Шанхай) для когнитивного анализа уголовных дел и система «Сяо Баогун» для предсказания приговоров. Суды Сучжоу используют ИИ для автоматического написания вердиктов[17]. Средняя продолжительность онлайн-заседания в Ханчжоуском суде составляет 28 минут против приблизительно двух часов в традиционных гражданских делах[18]. Вместе с тем исследователи предупреждают о риске «автоматизационного смещения» (automation bias): судьи могут подсознательно следовать ИИ-рекомендациям, утрачивая реальный контроль над процессом[19].
[15]Supreme People's Court — Creating a Higher Level of Digital Justice (2 June 2022). https://english.court.gov.cn/2022-06/02/c_767037.htm
[16]Deutsche Welle — How China's AI is automating the legal system (January 2023). https://www.dw.com/en/how-chinas-ai-is-automating-the-legal-system/a-64465988
[17]Zheng G. China's Grand Design of People's Smart Courts // Asian Journal of Law and Society. 2020. https://www.cambridge.org/core/journals/asian-journal-of-law-and-society/article/chinas-grand-design-of-peoples-smart-courts/476879522161B47A5BE10DBC4BDE8215
[18]China's E-Justice Revolution // Judicature (Duke University). 2021. https://judicature.duke.edu/articles/chinas-e-justice-revolution/
[19]Intelligent Justice // AI and Ethics. 2022. https://pmc.ncbi.nlm.nih.gov/articles/PMC9396564/
2.3. Великобритания: реформа HMCTS и принцип ответственного ИИ
В 2016 году Служба судов и трибуналов Её Величества (HMCTS) запустила масштабную программу реформы стоимостью 1,2 млрд фунтов стерлингов, включающую онлайн-подачу исков, видеозаседания и цифровое хранение доказательств. Элементы ИИ на 2025 год ограничены пилотными программами: 12-недельный пилот транскрипции с ИИ в Иммиграционном суде, интеллектуальная обработка более 8 млн бумажных форм в год, ИИ-анонимизация судебных решений[20]. Позиция HMCTS однозначна: ИИ применяется исключительно как инструмент поддержки; окончательные решения принимаются человеком. Действует Responsible AI Framework с принципами предотвращения предвзятости и защиты правовых прав[21].
2.4. Канада: Civil Resolution Tribunal и модель «ИИ на входе»
Civil Resolution Tribunal (CRT), созданный в провинции Британская Колумбия в 2016 году, представляет собой первый онлайн-трибунал Канады. Его ИИ-компонент — Solution Explorer — реализован на основе экспертной системы (rule-based expert system) и выполняет диагностику юридической проблемы, предоставляет индивидуальную правовую информацию на простом языке и предлагает инструменты самопомощи. Примечательно, что из 68 000 обращений к Solution Explorer лишь 16% привели к формальному иску — система разрешает подавляющее большинство проблем на досудебном этапе[22].
CRT принципиально не использует ИИ для вынесения решений по существу: все итоговые решения принимаются членами трибунала. Более того, CRT прямо предупреждает пользователей о рисках применения генеративного ИИ для правового анализа[23]. Знаковым стало дело Moffatt v. Air Canada (2024), в котором CRT признал авиакомпанию ответственной за недостоверную информацию, предоставленную потребителю ИИ-чат-ботом[24]. Канадская модель демонстрирует, что ИИ наиболее эффективен не как «цифровой судья», а как «цифровой привратник», разрешающий проблемы до судебного разбирательства.
[20]GOV.UK — AI Action Plan for Justice (July 2025). https://www.gov.uk/government/publications/ai-action-plan-for-justice/ai-action-plan-for-justice
[21]Inside HMCTS — We are committed to the responsible use of AI (September 2025). https://insidehmcts.blog.gov.uk/2025/09/03/hmcts-is-accelerating-the-responsible-adoption-of-artificial-intelligence-ai-to-transform-the-courts-and-tribunals/
[22]Designing AI for Courts // Richmond Journal of Law & Technology. 2023. https://scholarship.richmond.edu/cgi/viewcontent.cgi?article=1525&context=jolt
[23]CRT — Can I use AI tools in evidence and arguments? https://civilresolutionbc.ca/help/can-i-use-ai-tools-in-evidence-and-arguments/
[24]BC Tribunal Confirms Companies Remain Liable for AI Chatbot Created Information // Torkin Manes LLP. 2024. https://www.torkin.com/insights/publication/bc-tribunal-confirms-companies-remain-liable-for-ai-chatbot-created-information
2.5. Франция: запрет предиктивного профилирования судей
Франция в 2019 году приняла наиболее жёсткое в мире регуляторное ограничение в сфере правовых технологий. Статья 33 Закона о реформе правосудия (Loi de programmation 2018–2022 et de réforme pour la justice) запретила повторное использование данных об идентификации магистратов с целью оценки, анализа или прогнозирования их профессиональных практик — под угрозой до пяти лет лишения свободы[25]. Предысторией послужила практика компаний LegalTech, применявших методы обработки естественного языка (NLP) для статистического анализа поведения конкретных судей и предсказания исходов дел в зависимости от состава суда[26]. Французский подход, при всей его спорности с позиции доступа к информации, демонстрирует осознание государством угрозы, которую предиктивное профилирование судей представляет для независимости правосудия.
3. Правовые и этические проблемы «цифрового судьи»
3.1. Право на справедливое судебное разбирательство и ИИ
Статья 6(1) ЕКПЧ гарантирует каждому право на справедливое и публичное разбирательство дела независимым и беспристрастным судом. Практика ЕСПЧ выработала производные требования: право на мотивированное решение, равенство оружий, право быть выслушанным. «Цифровой судья» потенциально конфликтует с каждым из этих требований.
Кембриджский сборник «Generative AI and the Law» (2025) содержит специальную главу «Generative AI and Article 6 of the European Convention on Human Rights: The Right to a Human Judge?», авторы которой выделяют несколько уровней конфликта: деградация требования мотивированности (алгоритмы не порождают человекочитаемых рассуждений), угроза человеческому достоинству (дегуманизация процесса), проблема «ролевой взаимозаменяемости» (ИИ не может «испытать» наказание) и угрозы праву на обжалование[27]. Brennan-Marquez и Henderson настаивают: в либеральной демократии судья должен быть уязвим для тех же процессов, которые он применяет к другим, — ИИ не способен на это, что разрушает фундаментальный принцип автономии права[28].
Ряд академических исследований подтверждает этот вывод. Corsei (2025) показывает, что «непрозрачное» функционирование алгоритмов ударяет по состязательности[29]. Lopes (2025) приходит к выводу, что нарратив о «равнозначно предвзятом» ИИ и человеке-судье ошибочен[30]. Bhatti (2024) фиксирует, что непрозрачность ИИ подрывает принцип мотивированности решений, а размытость ответственности между разработчиками и судами усложняет механизмы подотчётности[31].
[25]Jurist — New France law bans use of analytics to determine judge behavior (5 June 2019). https://www.jurist.org/news/2019/06/new-france-law-bans-use-of-analytics-to-determine-judge-behavior/
[26]Artificial Lawyer — France Bans Judge Analytics, 5 Years In Prison For Rule Breakers (4 June 2019). https://www.artificiallawyer.com/2019/06/04/france-bans-judge-analytics-5-years-in-prison-for-rule-breakers/
[27]Generative AI and Article 6 ECHR // Cambridge Handbook of Generative AI and the Law. 2025. https://www.cambridge.org/core/books/cambridge-handbook-of-generative-ai-and-the-law/generative-ai-and-article-6-of-the-european-convention-on-human-rights/12D777345A82438DD75B115BD15D4C63
[28]Brennan-Marquez K., Henderson S. Inalienable Due Process in an Age of AI // Constitutional Challenges in the Algorithmic Society. Cambridge, 2021. https://www.cambridge.org/core/books/constitutional-challenges-in-the-algorithmic-society/inalienable-due-process-in-an-age-of-ai-limiting-the-contractual-creep-toward-automated-adjudication/AAD68D3CC3EF4779C1AEF02F2B8233BD
[29]Corsei A. Artificial Intelligence and the Right to a Fair Trial in the Context of Evidence Administration. 2025. DOI: 10.63331/upalaw/34/09. https://anuarupa.ro/index.php/upa-sw/article/view/52
[30]Lopes G. Bias in Adjudication and the Promise of AI: Challenges to Procedural Fairness. 2025. DOI: 10.5204/lthj.3812. https://lthj.qut.edu.au/article/view/3812
[31]Bhatti N. Artificial Intelligence and the Right to Fair Trial: Emerging Threats. 2024. DOI: 10.32996/ijlps.2024.6.2.6x. https://www.al-kindipublisher.com/index.php/ijlps/article/view/12365
3.2. Алгоритмическая предвзятость: от теории к эмпирике
Концепция алгоритмической предвзятости получила концептуальное обоснование в работах Кэти О'Нил «Оружие математического уничтожения» (2016) и Вирджинии Юбанкс «Автоматизация неравенства» (2018). О'Нил вводит концепцию «ОМУ» (Weapons of Math Destruction) — алгоритмических систем, которые одновременно широко применяются, непрозрачны и причиняют реальный вред уязвимым группам. Если обучающие данные отражают расовый или классовый дисбаланс прошлых приговоров, алгоритм закрепит неравенство в новых решениях. Юбанкс документирует, как автоматизированные системы непропорционально ударяют по малообеспеченным и маргинализованным группам, делая институциональные предубеждения менее видимыми и менее оспоримыми.
Эмпирические данные подтверждают эти теоретические положения. Исследование Tulane University (2024), основанное на анализе более 50 000 приговоров в Вирджинии, выявило, что ИИ-рекомендации снизили сроки заключения для низкорисковых осуждённых в среднем на один месяц, однако судьи, отступая от рекомендаций по делам темнокожих обвиняемых, назначали им на 6% меньше альтернативных наказаний и сроки в среднем на один месяц длиннее, чем белым при идентичных профилях риска[32]. Вывод: ИИ не устраняет расовую предвзятость — он смещает, но не ликвидирует её.
Математически строгий результат Green (2022) демонстрирует необходимость перехода от формальной к субстантивной алгоритмической справедливости, учитывающей структурные неравенства[33].
3.3. Проблема «чёрного ящика» и пределы объяснимого ИИ
Фрэнк Паскуале в монографии «The Black Box Society» (2015) формулирует центральный тезис: «чёрный ящик» — это не просто техническая сложность, но политический выбор. Компании защищают алгоритмы как коммерческую тайну, создавая «однонаправленное зеркало»: они знают всё о гражданах; граждане ничего — об алгоритмах[34]. В деле Loomis именно защита алгоритма как коммерческой тайны сделала невозможной проверку надёжности COMPAS — это структурное противоречие между правом на справедливое разбирательство и правом собственности на алгоритм остаётся неразрешённым.
Методы объяснимого ИИ (XAI — LIME, SHAP и др.) генерируют «пост-хок объяснения» решений сложных моделей, однако они могут не отражать реальных внутренних механизмов модели (faithfulness gap). Объяснение в форме «на решение повлияли факторы X, Y, Z» не равносильно мотивировке в правовом смысле, которая должна демонстрировать нормативный силлогизм: правовая норма → установленные факты → вывод[35]. Как отмечают Pasquale и Coglianese (2019), суды должны формировать «общее право XAI» — право, чувствительное к требованиям различных аудиторий[36].
Существует и структурная дилемма «точность vs. объяснимость»: более точные модели (глубокие нейросети, трансформеры), как правило, менее объяснимы. Суд, внедряя наиболее точный алгоритм, жертвует требованием мотивированности; выбирая объяснимую модель — жертвует точностью. Эта дилемма не имеет удовлетворительного разрешения при нынешнем уровне развития технологий.
[32]Ho Y-J. et al. AI sentencing cut jail time for low-risk offenders, but study finds racial bias persisted // Tulane University Press Release. 23 January 2024. https://news.tulane.edu/pr/ai-sentencing-cut-jail-time-low-risk-offenders-study-finds-racial-bias-persisted
[33]Green B. Escaping the Impossibility of Fairness. 2022. DOI: 10.1007/s13347-022-00584-6. https://arxiv.org/abs/2107.04642
[34]Pasquale F. The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press, 2015. https://digitalcommons.law.umaryland.edu/books/96/
[35]Chaudhary G. Explainable Artificial Intelligence (xAI): Reflections on Judicial System // Kutafin Law Review. 2023. Vol. 10(4). P. 872–889. DOI: 10.17803/2713-0533.2023.4.26.872-889. https://kulawr.msal.ru/jour/article/download/230/230
[36]Pasquale F., Coglianese C. The Judicial Demand for Explainable Artificial Intelligence // Columbia Law Review. 2019. Vol. 119(7). https://www.columbialawreview.org/content/the-judicial-demand-for-explainable-artificial-intelligence/
4. Международно-правовое регулирование ИИ в судопроизводстве
4.1. Регламент ЕС об ИИ (AI Act, 2024)
Регламент (ЕС) 2024/1689 «Об искусственном интеллекте» (AI Act), принятый 13 июня 2024 года, представляет собой первый в мире комплексный нормативный акт о регулировании ИИ. Регламент устанавливает риск-ориентированный подход, выделяя четыре уровня: запрещённые практики, высокий риск, ограниченный риск и минимальный риск[37].
Приложение III, пункт 8(a) AI Act прямо относит к категории высокого риска «ИИ-системы, предназначенные для использования судебным органом или от его имени для содействия судебному органу в исследовании и толковании фактов и права и в применении права к конкретной совокупности фактов»[38]. Рецитал 61 подчёркивает: «The use of AI tools can support the decision-making power of judges or judicial independence, but should not replace it: the final decision-making must remain a human-driven activity»[39].
Требования к высокорисковым системам (ст. 9–17) включают: систему управления рисками, обеспечение качества данных, полную техническую документацию, автоматическое логирование, прозрачность, человеческий надзор (ст. 14), требования к точности и кибербезопасности, а также обязательную оценку воздействия на фундаментальные права (FRIA) для публичных органов.
Вместе с тем исследование в International Journal of Law and Information Technology (2026) выявляет парадокс «судьи в контуре»: AI Act возлагает надзор за системами на судей, но эмпирические данные показывают, что судьи не способны одновременно использовать систему и адекватно её контролировать из-за automation bias (чрезмерного доверия), algorithmic aversion (иррационального отклонения) и selective adherence (систематической предвзятости при выборочном следовании рекомендациям)[40].
[37]Regulation (EU) 2024/1689 (EU AI Act) // Digital Strategy of the European Commission. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
[38]EU AI Act, Annex III: High-Risk AI Systems. https://artificialintelligenceact.eu/annex/3/
[39]EU AI Act, Recital 61. https://artificialintelligenceact.eu/recital/61/
[40]Judges-in-the-loop? Judicial involvement in human oversight of high-risk AI systems // International Journal of Law and Information Technology. 2026. DOI: 10.1093/ijlit/eaag001. https://academic.oup.com/ijlit/article/doi/10.1093/ijlit/eaag001/8475419
4.2. Этическая хартия CEPEJ (2018)
Европейская этическая хартия по использованию ИИ в судебных системах, принятая Комиссией по эффективности правосудия Совета Европы (CEPEJ) 4 декабря 2018 года, является первым международным документом, формулирующим этические принципы ИИ в правосудии[41]. Хартия устанавливает пять принципов: (1) уважение фундаментальных прав; (2) недискриминация; (3) качество и безопасность; (4) прозрачность, беспристрастность и справедливость; (5) контроль пользователя. Принцип контроля исключает предписывающий подход: судья в любой момент сохраняет право отступить от рекомендации ИИ с учётом обстоятельств дела.
Примечательно, что Хартия прямо упоминает системы COMPAS и HART (британский алгоритм оценки риска) как примеры применений, вызывающих «крайнюю озабоченность» в связи с дискриминационными эффектами. Хартия классифицирует применение ИИ в судах по четырём категориям: от применений, которые следует поощрять (поисковые системы по практике), до применений, вызывающих крайнюю озабоченность (алгоритмы рецидивизма в уголовных делах)[42].
5. Цифровизация судебной системы России
Государственная автоматизированная система «Правосудие» функционирует с 2006 года и обеспечивает единое информационное пространство судов общей юрисдикции: к 2023 году через неё прошло свыше 4 млрд обращений, а подача электронных документов выросла на 24%[43]. Однако, как отмечает председатель Совета судей В. Момотов (2025), ГАС «Правосудие» морально и технически устарела, арбитражные суды используют отдельную платформу, а в 13 из 89 регионов мировые судьи работают на несовместимом программном обеспечении[44].
Нормативную базу цифровизации составляют: Национальная стратегия развития ИИ до 2030 года (Указ Президента РФ от 10.10.2019 № 490), Концепция информатизации судов до 2030 года (Постановление Президиума Совета судей от 02.12.2019 № 785)[45], Концепция информационной политики судебной системы на 2020–2030 годы[46] и Концепция информатизации Верховного Суда РФ 2021 года[47].
К 2025 году ИИ используется в 35% российских судов. В Белгородской области (2021) тестировался «слабый ИИ» для составления судебных приказов о взыскании налогов на трёх участках мировых судей. В Ростовской области (2023) все мировые суды начали использовать ИИ для составления протоколов заседаний (распознавание речи). Вологодский областной суд применяет ИИ для анализа документов, их сравнения и составления проектов судебных решений[48]. В Амурской области система «Нейромагис» извлекает ключевые факты из протоколов об административных правонарушениях.
Позиция руководства Верховного Суда РФ последовательна. Председатель ВС И.Л. Подносова позиционировала ИИ как инструмент, применимый лишь по «бесспорным» вопросам технического характера[49]. Председатель Совета судей В.В. Момотов предупреждал о риске «автоматизационного смещения»: «Риск выбора судьёй простого пути — согласиться с предложенным ИИ решением — будет снижать его внутреннюю ответственность». Вместе с тем, как констатирует академическое исследование в журнале Russian Studies in Law and Politics (2025), текущее процессуальное законодательство РФ не адаптировано к использованию ИИ: ключевые проблемы — отсутствие правосубъектности ИИ, риски кибератак, противоречие принципам состязательности и независимости судей[50].
[41]CEPEJ, European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their Environment (December 2018). https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c
[42]European Parliament — CEPEJ Charter (PDF-текст). https://www.europarl.europa.eu/cmsdata/196205/COUNCIL%20OF%20EUROPE%20-%20European%20Ethical%20Charter%20on%20the%20use%20of%20AI%20in%20judicial%20systems.pdf
[43]Правосудие будущего: как ИИ меняет суды // Softline. 2024. https://softline.ru/about/blog/pravosudie-budushego-kak-iskusstvennyj-intellekt-menyaet-sudy
[44]35% российских судов используют ИИ // Право.ру. Май 2025. https://pravo.ru/news/258775/
[45]Концепция информатизации судов и системы Судебного департамента до 2030 года // ГАРАНТ. https://base.garant.ru/402995550/
[46]Концепция информационной политики судебной системы на 2020–2030 годы // legalacts.ru. https://legalacts.ru/doc/kontseptsija-informatsionnoi-politiki-sudebnoi-sistemy-na-2020-2030/
[47]Концепция информатизации Верховного Суда Российской Федерации (приказ Председателя ВС от 15.02.2021 № 9-П). http://www.vsrf.ru/files/29675/
[48]Каждый третий суд в России применяет ИИ // РынокВзыскания.РФ. Май 2025. https://rvzrus.ru/news/2938
[49]Перспективы использования ИИ в судебной системе // IPCMagazine. 2025. https://ipcmagazine.ru/articles/1850422/
[50]The Problems of Integrating Artificial Intelligence into the Judicial System of Russian Federation // Russian Studies in Law and Politics. 2025. Vol. 9(1). DOI: 10.12731/2576-9634-2025-9-1-215. https://journals.rcsi.science/2576-9634/article/view/301079
6. Академические концепции «цифрового судьи»
6.1. Таксономия Sourdin: от вспомогательных технологий к «подрывным»
Тания Сурдин (Tania Sourdin) в работе «Judge v Robot? Artificial Intelligence and Judicial Decision-Making» (2018) предлагает трёхуровневую таксономию технологического влияния на судопроизводство: (1) вспомогательные технологии (supportive) — юридические базы данных, предиктивное кодирование; (2) замещающие технологии (replacement) — системы предиктивной аналитики; (3) подрывные технологии (disruptive) — полноценный ИИ-судья, ведущий дела без человека[51].
Ключевые выводы: алгоритм не может обеспечить «отзывчивое правосудие» (responsive judging) — эмпатию, понимание контекста, индивидуальное взаимодействие со сторонами; дискреция и понимание семантики права принципиально не сводятся к алгоритмическим операциям; допустимо использование ИИ для проектов решений, утверждаемых человеком.
6.2. Прагматизм Susskind: онлайн-суды и вопрос доступа к правосудию
Ричард Сасскинд (Richard Susskind) в монографии «Online Courts and the Future of Justice» (2019) предлагает прагматический подход: первое поколение онлайн-судов (судьи решают дела асинхронно по материалам) уже реализуется; второе поколение предполагает алгоритмические решения с высокой степенью достоверности[52]. Susskind ставит провокационный вопрос: «для 100 миллионов нерешённых дел в Бразилии — не лучше ли какое-то решение, чем ничего?»[53]. Его главный тезис: «лучшее — враг хорошего; вопрос в сравнении с реально работающей системой, а не с идеальной».
Критика: подход Susskind игнорирует структурные последствия — риск того, что «доступное» алгоритмическое правосудие для малообеспеченных будет качественно хуже человеческого правосудия для состоятельных, создавая двухуровневую систему юстиции.
[51]Sourdin T. Judge v Robot? Artificial Intelligence and Judicial Decision-Making // UNSW Law Journal. 2018. Vol. 41(4). P. 1114–1133. https://www.judcom.nsw.gov.au/publications/benchbks/judicial_officers/judge_v_robot.html
[52]Susskind R. Online Courts and the Future of Justice. Oxford: Oxford University Press, 2019. https://global.oup.com/academic/product/online-courts-and-the-future-of-justice-9780192849304
[53]Susskind R. The Future of Courts // Harvard Law School. February 2023. https://clp.law.harvard.edu/article/the-future-of-courts/
6.3. Дифференцированный подход: уровни автоматизации
Dolidze (2026) разграничивает административную автоматизацию, системы поддержки решений и полностью автоматизированное судопроизводство, утверждая, что каждый уровень порождает качественно иные правовые риски[54]. Kim (2024) добавляет, что «слабый» ИИ не может быть судьёй, поскольку анализирует корреляции, а не причинно-следственные связи, и не обладает судейскими добродетелями[55]. Langford (2020) рассматривает «робосудей» с точки зрения международного права прав человека, подчёркивая конфликт с правом на справедливое разбирательство и правом на социальное обеспечение[56].
[54]Dolidze T. Artificial Intelligence in Judicial Decision-Making: Can a Robot Replace a Judge? 2026. DOI: 10.36475/12.1.1. https://lawandworld.ge/index.php/law/article/view/954
[55]Kim J.H. A Theoretical Discussion on Artificial Intelligence Judges. 2024. DOI: 10.38133/cnulawreview.2024.44.4.1. https://scholar.kyobobook.co.kr/article/detail/4010070222624
[56]Langford M. Taming the Digital Leviathan: Automated Decision-Making and International Human Rights. 2020. DOI: 10.1017/aju.2020.31. https://www.cambridge.org/core/services/aop-cambridge-core/content/view/5AFE96F03A1B75B63729D60F0F609609/S2398772320000318a.pdf
Заключение
Проведённое исследование позволяет сформулировать следующие выводы.
Во-первых, анализ зарубежного опыта демонстрирует, что ни одна юрисдикция мира не реализовала модель полностью автономного «цифрового судьи». Даже наиболее радикальный эстонский проект (2019) не вышел за стадию ранней разработки, а все действующие системы — от китайского «Сяо Чжи» до канадского Solution Explorer — функционируют как вспомогательные инструменты при сохранении финального решения за человеком. Это свидетельствует о том, что технологическая готовность значительно опережает правовую и институциональную.
Во-вторых, опыт системы COMPAS и дела State v. Loomis обнажает фундаментальную проблему алгоритмической предвзятости. Математическая невозможность одновременного достижения различных определений «справедливости» (impossibility theorem) означает, что вопрос предвзятости алгоритмов является не технической погрешностью, подлежащей устранению, а структурным свойством любой системы классификации при неравных базовых показателях между группами. Данные исследования Tulane University (2024) подтверждают: ИИ смещает, но не ликвидирует неравенство.
В-третьих, «цифровой судья» находится в системном противоречии со ст. 6 ЕКПЧ. Право на мотивированное решение предполагает нормативный силлогизм, а не пост-хок объяснение работы нейросети. Право быть выслушанным теряет смысл, если адресат обращения — алгоритм. Принцип человеческого достоинства, как убедительно показано в Кембриджском сборнике (2025), требует, чтобы решение о правах и свободах выносилось существом, способным к эмпатии и уязвимым для тех же процессов, которые оно применяет к другим.
В-четвёртых, международное регулирование формирует устойчивый консенсус: ИИ в правосудии допустим только при сохранении «человека в контуре». EU AI Act (2024) классифицирует судебный ИИ как систему высокого риска с жёсткими требованиями прозрачности и человеческого надзора. Этическая хартия CEPEJ (2018) исключает предписывающий подход. Позиция Верховного Суда РФ последовательно ограничивает ИИ вспомогательными функциями. Однако, как показывает исследование 2026 года, сам механизм «человеческого надзора» уязвим для automation bias — создавая парадокс, при котором формальное сохранение человека в контуре не гарантирует его реального контроля над процессом.
В-пятых, российская судебная система находится на этапе точечного, нескоординированного внедрения ИИ в условиях отсутствия специального закона и устаревшей инфраструктуры ГАС «Правосудие». Пилотные проекты (Белгородская, Ростовская, Вологодская области) демонстрируют потенциал, но процессуальное законодательство не адаптировано к использованию ИИ, что создаёт правовые лакуны.
На основании изложенного автор полагает, что оптимальная модель внедрения ИИ в судопроизводство предполагает три уровня допустимости: (1) полностью допустимые применения (распознавание речи, анонимизация, административный документооборот); (2) допустимые с оговорками (поиск прецедентов, проекты решений по типовым делам при обязательном человеческом контроле); (3) недопустимые (автономное принятие решений по существу спора, использование закрытых алгоритмов, не поддающихся аудиту). Концепция «цифрового судьи» в её радикальном понимании — как автономного алгоритма, заменяющего человека, — несовместима с действующими стандартами прав человека и принципами верховенства права. Будущее ИИ в правосудии — не в замене судьи, а в создании инструментов, расширяющих его возможности при сохранении полноты ответственности за принятое решение.
- Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (EU AI Act). URL: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- EU AI Act. Annex III: High-Risk AI Systems. URL: https://artificialintelligenceact.eu/annex/3/
- EU AI Act. Recital 61. URL: https://artificialintelligenceact.eu/recital/61/
- European Convention on Human Rights. Art. 6. Right to a fair trial. URL: https://www.equalityhumanrights.com/human-rights/human-rights-act/article-6-right-fair-trial
- CEPEJ. European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their Environment (December 2018). URL: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c
- Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (ред. от 15.02.2024).
- Концепция информатизации судов и системы Судебного департамента до 2030 года (Постановление Президиума Совета судей РФ от 02.12.2019 № 785). URL: https://base.garant.ru/402995550/
- Концепция информационной политики судебной системы на 2020–2030 годы (одобрена Советом судей РФ 05.12.2019). URL: https://legalacts.ru/doc/kontseptsija-informatsionnoi-politiki-sudebnoi-sistemy-na-2020-2030/
- Концепция информатизации Верховного Суда Российской Федерации (приказ Председателя ВС от 15.02.2021 № 9-П). URL: http://www.vsrf.ru/files/29675/
- Loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice. Art. 33.
- State v. Loomis, 881 N.W.2d 749 (Wis. 2016), cert. denied, 137 S.Ct. 2290 (2017). URL: https://www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690
- State v. Loomis // Harvard Law Review. 2017. Vol. 130. URL: https://harvardlawreview.org/print/vol-130/state-v-loomis/
- O'Neil C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. — New York: Crown Books, 2016.
- Eubanks V. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. — New York: St. Martin's Press, 2018.
- Pasquale F. The Black Box Society: The Secret Algorithms That Control Money and Information. — Cambridge: Harvard University Press, 2015. URL: https://digitalcommons.law.umaryland.edu/books/96/
- Susskind R. Online Courts and the Future of Justice. — Oxford: Oxford University Press, 2019. URL: https://global.oup.com/academic/product/online-courts-and-the-future-of-justice-9780192849304
- Sourdin T. Judge v Robot? Artificial Intelligence and Judicial Decision-Making // UNSW Law Journal. 2018. Vol. 41(4). P. 1114–1133. URL: https://www.judcom.nsw.gov.au/publications/benchbks/judicial_officers/judge_v_robot.html
- Corsei A. Artificial Intelligence and the Right to a Fair Trial in the Context of Evidence Administration. 2025. DOI: 10.63331/upalaw/34/09. URL: https://anuarupa.ro/index.php/upa-sw/article/view/52
- Lopes G. Bias in Adjudication and the Promise of AI: Challenges to Procedural Fairness. 2025. DOI: 10.5204/lthj.3812. URL: https://lthj.qut.edu.au/article/view/3812
- Bhatti N. Artificial Intelligence and the Right to Fair Trial: Emerging Threats. 2024. DOI: 10.32996/ijlps.2024.6.2.6x. URL: https://www.al-kindipublisher.com/index.php/ijlps/article/view/12365
- Dolidze T. Artificial Intelligence in Judicial Decision-Making: Can a Robot Replace a Judge? 2026. DOI: 10.36475/12.1.1. URL: https://lawandworld.ge/index.php/law/article/view/954
- Langford M. Taming the Digital Leviathan: Automated Decision-Making and International Human Rights // American Journal of International Law Unbound. 2020. DOI: 10.1017/aju.2020.31. URL: https://www.cambridge.org/core/services/aop-cambridge-core/content/view/5AFE96F03A1B75B63729D60F0F609609/S2398772320000318a.pdf
- Kim J.H. A Theoretical Discussion on Artificial Intelligence Judges. 2024. DOI: 10.38133/cnulawreview.2024.44.4.1. URL: https://scholar.kyobobook.co.kr/article/detail/4010070222624
- Chaudhary G. Explainable Artificial Intelligence (xAI): Reflections on Judicial System // Kutafin Law Review. 2023. Vol. 10(4). P. 872–889. DOI: 10.17803/2713-0533.2023.4.26.872-889. URL: https://kulawr.msal.ru/jour/article/download/230/230
- Pasquale F., Coglianese C. The Judicial Demand for Explainable Artificial Intelligence // Columbia Law Review. 2019. Vol. 119(7). URL: https://www.columbialawreview.org/content/the-judicial-demand-for-explainable-artificial-intelligence/
- Green B. Escaping the Impossibility of Fairness. 2022. DOI: 10.1007/s13347-022-00584-6. URL: https://arxiv.org/abs/2107.04642
- Judges-in-the-loop? Judicial involvement in human oversight of high-risk AI systems // International Journal of Law and Information Technology (Oxford). 2026. DOI: 10.1093/ijlit/eaag001. URL: https://academic.oup.com/ijlit/article/doi/10.1093/ijlit/eaag001/8475419
- The Problems of Integrating Artificial Intelligence into the Judicial System of Russian Federation // Russian Studies in Law and Politics. 2025. Vol. 9(1). DOI: 10.12731/2576-9634-2025-9-1-215. URL: https://journals.rcsi.science/2576-9634/article/view/301079
- Angwin J., Larson J., Kirchner L., Mattu S. Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And It's Biased Against Blacks // ProPublica. 23 May 2016. URL: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
- Ho Y-J. et al. AI sentencing cut jail time for low-risk offenders, but study finds racial bias persisted // Tulane University Press Release. 23 January 2024. URL: https://news.tulane.edu/pr/ai-sentencing-cut-jail-time-low-risk-offenders-study-finds-racial-bias-persisted
- Generative AI and Article 6 of the European Convention on Human Rights: The Right to a Human Judge? // Cambridge Handbook of Generative AI and the Law. 2025. URL: https://www.cambridge.org/core/books/cambridge-handbook-of-generative-ai-and-the-law/generative-ai-and-article-6-of-the-european-convention-on-human-rights/12D777345A82438DD75B115BD15D4C63
- Brennan-Marquez K., Henderson S. Inalienable Due Process in an Age of AI // Constitutional Challenges in the Algorithmic Society. Cambridge, 2021. URL: https://www.cambridge.org/core/books/constitutional-challenges-in-the-algorithmic-society/inalienable-due-process-in-an-age-of-ai-limiting-the-contractual-creep-toward-automated-adjudication/AAD68D3CC3EF4779C1AEF02F2B8233BD
- Designing AI for Courts // Richmond Journal of Law & Technology. 2023. URL: https://scholarship.richmond.edu/cgi/viewcontent.cgi?article=1525&context=jolt
- Susskind R. The Future of Courts // Harvard Law School. February 2023. URL: https://clp.law.harvard.edu/article/the-future-of-courts/
- 35% российских судов используют ИИ // Право.ру. Май 2025. URL: https://pravo.ru/news/258775/
- Каждый третий суд в России применяет ИИ // РынокВзыскания.РФ. Май 2025. URL: https://rvzrus.ru/news/2938
- Перспективы использования ИИ в судебной системе // IPCMagazine. 2025. URL: https://ipcmagazine.ru/articles/1850422/
- Правосудие будущего: как ИИ меняет суды // Softline. 2024. URL: https://softline.ru/about/blog/pravosudie-budushego-kak-iskusstvennyj-intellekt-menyaet-sudy
- AI and digital justice in EU labor law // PMC / Frontiers in AI. 2026. URL: https://pmc.ncbi.nlm.nih.gov/articles/PMC12894374/
- GOV.UK — AI Action Plan for Justice. July 2025. URL: https://www.gov.uk/government/publications/ai-action-plan-for-justice/ai-action-plan-for-justice
- Inside HMCTS — We are committed to the responsible use of AI. September 2025. URL: https://insidehmcts.blog.gov.uk/2025/09/03/hmcts-is-accelerating-the-responsible-adoption-of-artificial-intelligence-ai-to-transform-the-courts-and-tribunals/
- CRT — Can I use AI tools in evidence and arguments? URL: https://civilresolutionbc.ca/help/can-i-use-ai-tools-in-evidence-and-arguments/
- BC Tribunal Confirms Companies Remain Liable for AI Chatbot Created Information // Torkin Manes LLP. 2024. URL: https://www.torkin.com/insights/publication/bc-tribunal-confirms-companies-remain-liable-for-ai-chatbot-created-information
- Jurist — New France law bans use of analytics to determine judge behavior. 5 June 2019. URL: https://www.jurist.org/news/2019/06/new-france-law-bans-use-of-analytics-to-determine-judge-behavior/
- Artificial Lawyer — France Bans Judge Analytics, 5 Years In Prison For Rule Breakers. 4 June 2019. URL: https://www.artificiallawyer.com/2019/06/04/france-bans-judge-analytics-5-years-in-prison-for-rule-breakers/
- Beijing Internet Court — Chinese courts must implement AI system by 2025 (December 2022). URL: https://english.bjinternetcourt.gov.cn/2022-12/12/c_593.htm
- Supreme People's Court — Creating a Higher Level of Digital Justice. 2 June 2022. URL: https://english.court.gov.cn/2022-06/02/c_767037.htm
- China's E-Justice Revolution // Judicature (Duke University). 2021. URL: https://judicature.duke.edu/articles/chinas-e-justice-revolution/
- Zheng G. China's Grand Design of People's Smart Courts // Asian Journal of Law and Society. 2020. URL: https://www.cambridge.org/core/journals/asian-journal-of-law-and-society/article/chinas-grand-design-of-peoples-smart-courts/476879522161B47A5BE10DBC4BDE8215
- Intelligent Justice // AI and Ethics. 2022. URL: https://pmc.ncbi.nlm.nih.gov/articles/PMC9396564/
- European Parliament — CEPEJ Charter (PDF). URL: https://www.europarl.europa.eu/cmsdata/196205/COUNCIL%20OF%20EUROPE%20-%20European%20Ethical%20Charter%20on%20the%20use%20of%20AI%20in%20judicial%20systems.pdf
- Loomis v. Wisconsin // SCOTUSblog. URL: https://www.scotusblog.com/cases/case-files/loomis-v-wisconsin/
- Wired — Can AI Be a Fair Judge in Court? Estonia Thinks So. 25 March 2019. URL: https://www.wired.com/story/can-ai-be-fair-judge-court-estonia-thinks-so/
- World Economic Forum — Estonia is building a 'robot judge'. 26 March 2019. URL: https://www.weforum.org/stories/2019/03/estonia-is-building-a-robot-judge-to-help-clear-legal-backlog/
- Harvard International Review — Your Honor, AI. April 2020. URL: https://hir.harvard.edu/your-honor-ai/
- Deutsche Welle — How China's AI is automating the legal system. January 2023. URL: https://www.dw.com/en/how-chinas-ai-is-automating-the-legal-system/a-64465988
- ProPublica — How We Analyzed the COMPAS Recidivism Algorithm. May 2016. URL: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
- ProPublica — Bias in Criminal Risk Scores is Mathematically Inevitable, Researchers Say. URL: https://www.propublica.org/article/bias-in-criminal-risk-scores-is-mathematically-inevitable-researchers-say



