
Юридический факультет UNC организовал учебное судебное разбирательство, где функции присяжных выполняли три алгоритма искусственного интеллекта: ChatGPT, Grok и Claude. Учебное заведение заявляет, что это «одна из первых попыток подобного моделирования»: будущие юристы провели полноценный процесс в зале суда, а окончательное решение должен был озвучить ИИ перед публикой.
Эксперимент разворачивался в условном 2036 году при условии принятия фиктивного «Закона об алгоритмическом уголовном правосудии», разрешающего замену людей-присяжных системами ИИ. В центре дела — афроамериканский старшеклассник Генри Джастас, обвиняемый в нападении на белого подростка. Сценарий выбран сознательно: организаторы учли проблемы расовых предубеждений в реальных судах присяжных в США, пытаясь выяснить, станут ли алгоритмы «объективнее людей» или воспроизведут существующие социальные стереотипы.
Ход процесса соответствовал стандартной процедуре: учащиеся выступали в ролях обвинителя, защитника, потерпевшего и подсудимого. Позицию судьи занял профессор уголовного права Джозеф Кеннеди. Трансляция заседания передавалась нейросетям для формирования вердикта.
Результаты работы алгоритмов оставались неизвестными на момент публикации — планировался детальный анализ решения с участием правоведов, философа и эксперта по данным. В списке ключевых исследовательских вопросов обозначены:
- Достоверность (не допустил ли ИИ фактологических ошибок)
- Оптимизация (превосходит ли скорость и экономичность человеческий аналог)
- Объективность (способность избегать предрассудков)
- Общественное доверие (готово ли общество признавать законность вердиктов, вынесенных закрытыми коммерческими алгоритмами)
В университете подчеркивают, что неконтролируемое использование ИИ участниками судебных процессов уже происходит, поэтому важно начать общественную дискуссию о его правовом статусе.



