
Право уже проходило через ситуации, когда в судебный процесс пытались встроить то, что не укладывалось в привычные категории. Суды решали, могут ли животные быть субъектами ответственности, можно ли взыскивать ущерб за «кражу души» и где проходит граница между автоматизмом и осознанным действием. Сегодня в этой роли оказался искусственный интеллект (ИИ). Его первые появления в судах кажутся курьезами именно потому, что право сталкивается не с новой технологией, а с новой средой, для которой еще не выработан процессуальный язык. Legal.Report обратился к нескольким показательным эпизодам, через которые суды уже сегодня очерчивают границы допустимого в эпоху глобальной цифровой трансформации.
Наглядный и свежий пример — эпизод, произошедший весной 2025 года в апелляционном суде штата Нью-Йорк. Истец по трудовому спору попытался представить свои аргументы не лично и не через адвоката, а с помощью AI-сгенерированного видеоаватара, заранее записанного и выведенного на экран во время судебного заседания. По замыслу заявителя цифровой «двойник» должен был заменить его устное выступление в суде.
Судьи почти сразу обратили внимание, что попытки задать уточняющие вопросы не приводили к живому диалогу. Через несколько минут заседание было остановлено. Истец признал, что видео создано с использованием нейросети, и пояснил, что рассматривал такой формат как допустимый способ донесения своей позиции. Суд с этим не согласился. Апелляционная инстанция отказалась рассматривать выступление, указав, что участие в процессе предполагает личное присутствие стороны или ее представителя, возможность немедленно реагировать на вопросы суда и нести процессуальные последствия своих заявлений. Цифровой аватар, даже максимально правдоподобный, этим требованиям не отвечает.
Формально произошедшее выглядело как курьез — попытка «принести технологию в суд». По сути же это была попытка ввести ИИ в судебный процесс в роли участника, а не вспомогательного инструмента. Ответ суда оказался предельно четким: процесс возможен только там, где есть человек, способный отвечать за сказанное и сделанное.
Показательно, что почти в то же время суды начали иначе относиться к другим технологическим новшествам, допуская их использование в процессе в строго вспомогательной роли. Так, в начале 2025 года в США окружной суд допустил использование технологии виртуальной реальности в уголовном деле о нападении с применением огнестрельного оружия. По ходатайству стороны защиты суд, стороны и свидетели ознакомились с VR-симуляцией конфликта, воссозданного с точки зрения обвиняемого. Интерактивная визуализация была создана на основе свидетельских показаний и видеозаписей и демонстрировалась с использованием серийной VR-гарнитуры. Защита настаивала, что такой формат позволяет наглядно показать обстановку инцидента и оценить действия подсудимого в контексте версии о самообороне. Суд подчеркнул, что речь идет не о замене показаний или аргументов, а о способе визуализации уже представленных доказательств. Виртуальная реальность была признана допустимой именно потому, что не вмешивалась в процесс доказывания и не подменяла собой субъекта процессуальных действий.
Другой тип показательных дел связан с использованием генеративных моделей при подготовке процессуальных документов. В ряде дел в США внимание судов привлекло не содержание аргументов, а ссылки на судебную практику. При проверке выяснялось, что часть упомянутых решений не существует вовсе — ни в федеральных, ни в штатных базах данных. В ходе разбирательств устанавливалось, что документы были подготовлены с использованием ИИ, а ссылки не были перепроверены перед подачей в суд. При этом сами тексты выглядели формально безупречно: корректная структура, уверенный тон, правдоподобная аргументация. Опасность таких ситуаций заключалась не в самой ошибке, а в том, что алгоритм воспроизводил форму юридического рассуждения, к которой правовая система привыкла доверять.
Реакция судов была принципиальной. Проблемой оказался не сам факт использования искусственного интеллекта, а то, что ответственность за достоверность аргументации оказалась размыта. Алгоритм не может быть привлечен к дисциплинарной ответственности, не способен объяснить происхождение «практики» и не несет последствий за введение суда в заблуждение. Все эти последствия легли на юристов, подписавших документы, — подход, который позже подтвердился и за пределами отдельных процессов, когда использование ИИ без проверки привело уже не к судебным санкциям, а к публичным извинениям и репутационным последствиям для юридических фирм.
Реакция на ИИ в судах перестала быть национальной особенностью и все больше оформляется как общий принцип. В странах Европейского союза (ЕС) этот подход был зафиксирован прежде всего на уровне регулирования и судебных администраций. Обсуждение и поэтапное внедрение AI Act (The EU Artificial Intelligence Act) исходило из той же базовой предпосылки: генеративные модели допустимы как инструменты поддержки, но неприемлемы там, где они способны влиять на оценку доказательств, формирование мотивировки или подменять человеческое усмотрение. Речь шла не о запрете технологий, а о недопустимости переноса ответственности с субъекта на алгоритм.
В азиатской практике эта логика была зафиксирована не столько через судебные прецеденты, сколько через регламенты и административные разъяснения. В частности, в Китае при активном развитии «умных судов» ИИ используется как вспомогательный инструмент — для анализа практики и подготовки материалов, тогда как формирование юридически значимых выводов и принятие решения сохраняются за судьей. Аналогичный подход закреплялся и в Японии, где при обсуждении внедрения ИИ в судебную и квазисудебную деятельность подчеркивалось, что технологии допустимы лишь как вспомогательный инструмент, а оценка доказательств, мотивов и ответственности остается исключительной функцией судьи-человека.
В России дискуссия об ИИ в судах также оформляется как институциональная позиция. В ноябре 2025 года председатель Верховного суда РФ Игорь Краснов заявил, что поручил ускорить внедрение ИИ-технологий в судебную деятельность, прежде всего для анализа судебной практики, выявления в ней противоречий и недостатков правового регулирования. При этом он подчеркнул, что нейросети не смогут заменить судью.
В совокупности эти подходы показывают: речь идет не о разрозненных реакциях отдельных судов, а о формировании общего принципа. Независимо от правовой системы, граница проводится в одном и том же месте — там, где заканчивается инструмент и начинается субъект ответственности.
В разные периоды судебной практики система уже оказывалась перед необходимостью отвечать на требования и конструкции, не укладывающиеся в привычные правовые категории — будь то нетипичный субъект или размытая причинно-следственная связь.
Один из самых известных примеров — иск, поданный от имени макаки, сделавшей «селфи» на камеру фотографа. Организация PETA (Люди за этичное обращение с животными) настаивала на признании за животным авторских прав на фотографию. По существу, суду предлагалось признать не-человека носителем субъективных прав. Этот подход был отвергнут: животное не может участвовать в правовых отношениях и не способно нести юридическую ответственность, а значит, не может быть субъектом авторского права.
Другой показательный пример — иск к метеорологической службе, поданный после того, как неверный прогноз погоды, по утверждению заявительницы, привел к простуде, пропуску работы и дополнительным расходам на лечение. Несмотря на то что иск был удовлетворен и истцу была присуждена компенсация в $1000, сам сюжет наглядно демонстрировал пределы допустимого: суду пришлось признать юридически значимой крайне опосредованную причинно-следственную связь — между прогнозом погоды и заболеванием, зависящим от множества внешних факторов.
Именно через такие решения и формировалась граница допустимого — не как раз и навсегда заданная линия, а как поле постоянного напряжения, значение которого сегодня вновь проявляется в контексте ИИ. Разница лишь в том, что прежние «экзотические» требования легко распознавались как выходящие за пределы права, тогда как системы искусственного интеллекта воспроизводят форму юридически значимого участия — аргументацию, структуру и логику рассуждений.
Ключевой риск
Искусственный интеллект все чаще перестает быть инструментом и начинает работать как инфраструктура — на уровне электричества или интернета. Его присутствие не всегда заметно, но именно оно все чаще определяет, как формируются аргументы, принимаются решения и выглядят процессуальные действия. Для права это означает столкновение не с новой технологией, а с новой средой, в которой между человеком и результатом встает алгоритм.
Право исторически консервативно не из осторожности, а из ответственности. Оно не может позволить себе скорость технологий, потому что каждое допущение здесь превращается в норму. Именно поэтому первые столкновения судов с ИИ выглядят как череда отказов и жестких разграничений: система пытается удержать последнее, что нельзя делегировать, — персональную ответственность.
Ключевой риск уже не сводится к допустимости отдельных решений. Он куда радикальнее: сможет ли право сохранить различие между тем, кто принимает решение, и тем, что лишь делает его убедительным. Практика последних лет показывает, что этот выбор уже начался. И от того, где именно суды проведут эту границу сегодня, зависит, останется ли ответственность центральным принципом правовой системы в мире алгоритмов — или будет постепенно растворена в технологическом удобстве.
Ваше сообщение отправлено редакторам сайта. Спасибо за предоставленную информацию. В случае возникновения вопросов с вами могут связаться по указанным контактам.