В Нью-Йорке (США) два адвоката, готовясь к иску, воспользовались ChatGPT для поиска прецедентных дел. В ходе разбирательства выяснилось, что чат-бот с искусственным интеллектом (ИИ) сфабриковал кейсы. Теперь юристы должны выплатить по $5000 и уведомить каждого из судей, чьи имена фигурировали в вымышленных материалах.
В 2019 году некий Роберто Мата летел из Сальвадора в Нью-Йорк колумбийской авиакомпанией Avianca. Во время перелета пассажир получил травму колена от удара сервировочной тележкой, на которой бортпроводники развозят еду. Спустя два года Мата вспомнил о неприятном инциденте и обратился в юридическую фирму Levidow, Levidow & Oberman (Нью-Йорк) для подачи судебного иска. Сотрудник юрфирмы, адвокат с 30-летним стажем Шварц, решил подкрепить позицию прецедентными кейсами и, чтобы облегчить себе работу, обратился к новомодному ChatGPT с запросом на подготовку десятистраничного брифа. Искусственный интеллект выдал ему подборку из подходящих дел — «Мартинес против Delta Air Lines», «Варгезе против China Southern Airlines», «Зичерман против Korean Air Lines» и ряд других, в которых фигурировали фамилии действующих судей.
Шварц не стал досконально перепроверять информацию и просто уточнил в запросе у чат-бота, реальные ли дела и где найти первоисточник. В ответ ChatGPT заверил юриста, что кейсы не вымышленные и их можно найти в популярных в США юридических базах LexisNexis и Westlaw. Уверенность бота убедила Шварца. Поскольку адвокат сам не был допущен к выступлению в суде, то направил с брифом в процесс своего коллегу по фирме Питера Лодуку.
Представленные стороной истца прецеденты взялись изучать адвокаты ответчика. Они не смогли найти большую часть дел, а именно шесть, ни в одной из баз данных и засомневались в их существовании. Судья Кевин Кастел присмотрелся более внимательно к брифу и увидел в кейсах ряд явных признаков сфабрикованности. Например, один из указанных там судей на самом деле отправлял правосудие в другом округе, в решениях были стилистические и аргументационные огрехи, вдобавок краткое изложение ряда дел было нелогичным. «Полная тарабарщина», — заключил председательствующий.
Когда судья попросил Лодуку представить полностью эти дела, адвокат начал увиливать, ссылаться на предстоящий отпуск и попросил дополнительное время на подготовку. Позже выяснилось, что отпуск был выдуман, а бриф подготовлен с помощью ChatGPT. Шварц, предчувствуя скандал, отправил судье Кастелу свои объяснения, рассказав, что впервые использовал ИИ для создания подборки и не знал, что ответы чат-бота могут быть ложными. Также адвокат поклялся впредь не относиться так халатно к LegalTech-инструментам. Судья, в свою очередь, выразился в том духе, что от ошибок не застрахован даже искусственный интеллект, поэтому юрист обязан тщательно перепроверять информацию. Но врать суду и увиливать — совсем другое дело. В результате оба юриста были оштрафованы на $5000 каждый. Адвокаты избежали бы штрафа, если бы сразу признались, что использовали чат-бот, отметил судья.
Кастел решил не требовать от адвокатов извинений перед упомянутыми в вымышленных кейсах судьями, так как «вынужденное извинение не является искренним». Также судья не стал направлять материалы для дисциплинарного разбирательства в орган адвокатского сообщества штата. Однако если его представители начнут собственное расследование, обоих адвокатов могут подвергнуть частному выговору, отстранить от работы или даже лишить лицензии, уточнила The New York Times.
Что касается иска к авиакомпании, то судья отклонил его из-за истечения срока давности, как и просила сторона ответчика.
Ваше сообщение отправлено редакторам сайта. Спасибо за предоставленную информацию. В случае возникновения вопросов с вами могут связаться по указанным контактам.