The article has been automatically translated into English by Google Translate from Russian and has not been edited.
Переклад цього матеріалу українською мовою з російської було автоматично здійснено сервісом Google Translate, без подальшого редагування тексту.
Bu məqalə Google Translate servisi vasitəsi ilə avtomatik olaraq rus dilindən azərbaycan dilinə tərcümə olunmuşdur. Bundan sonra mətn redaktə edilməmişdir.

Адвокат использовал ChatGPT для судебного разбирательства: ИИ все испортил

30.05.2023, 10:23 EST

Ольга Деркач

Подписывайтесь на ForumDaily NewYork в Google News

Роберто Мата подал в суд на авиакомпанию Avianca, заявив, что он был ранен, когда металлическая сервировочная тележка ударила его по колену во время полета в международный аэропорт Кеннеди в Нью-Йорке. Но юристы решили пойти легким путем и использовали ChatGPT в деле. Что из этого получилось, рассказало издание The New York Times.

Когда Avianca попросила федерального судью Манхэттена закрыть дело, адвокаты Маты яростно возражали, представив 10-страничный отчет, в котором цитировалось более полудюжины соответствующих судебных решений. Были дела «Мартинес против Delta Air Lines», «Зикерман против Korean Air Lines» и «Варгезе против China Southern Airlines».

Была только одна загвоздка: никто — ни юристы авиакомпании, ни даже сам судья — не мог найти решения или цитаты, приведенные в брифе.

Это потому, что ChatGPT все придумал.

Юрист, составивший отчет, Стивен Шварц из фирмы Levidow, Levidow & Oberman, сдался на милость суда, заявив в показаниях под присягой, что он использовал программу искусственного интеллекта для проведения своих юридических исследований.

Шварц, который занимается юридической практикой в Нью-Йорке в течение трех десятилетий, сказал судье Кевину Кастелю, что у него не было намерения обмануть суд или авиакомпанию. Шварц сказал, что никогда не использовал ChatGPT и «поэтому не знал о возможности того, что содержимое может быть ложным».

Он сказал судье, что даже попросил программу подтвердить, что эти случаи были реальными. И ChatGPT дал положительный ответ.

Шварц сказал, что он «очень сожалеет» о том, что полагался на ChatGPT, «и никогда не будет делать этого в будущем без абсолютной проверки подлинности данных».

Судья Кастель заявил, что ему были представлены «беспрецедентные обстоятельства», юридическое постановление, изобилующее «фальшивыми судебными решениями и фальшивыми цитатами». Он назначил слушание на 8 июня для обсуждения возможных санкций.

По мере того, как искусственный интеллект захватывает онлайн-мир, он создает антиутопические образы компьютеров, заменяющих не только человеческое взаимодействие, но и человеческий труд. Многие люди беспокоятся о том, что их повседневная деятельность может быть заменена ИИ.

Стивен Гиллерс, профессор юридической этики в Школе права Нью-Йоркского университета, сказал, что этот вопрос стоит особенно остро среди юристов, которые обсуждают ценность и опасность искусственного интеллекта, а также необходимость проверки любой информации, которую оно предоставляет.

По теме: Учить английский с Chat-GPT: как освоить иностранный язык с помощью искусственного интеллекта

«Сейчас обсуждается, как избежать именно того, что описывает этот случай, — сказал Гиллерс. – Вы не можете просто взять ответ ИИ и вставить его в судебные документы».

Реальное дело Роберто Мата против Avianca Inc. показывает, что у юристов есть еще достаточно времени, прежде чем роботы возьмут верх.

Как все обнаружилось

Мата был пассажиром рейса 670 Avianca из Сальвадора в Нью-Йорк 27 августа 2019 года, когда сотрудник авиакомпании ударил его тележкой для сервировки, согласно иску. После того, как Мата подал в суд, авиакомпания подала документы с просьбой закрыть дело по причине истечения срока давности.

В записке, поданной в марте, адвокаты Маты заявили, что судебный процесс должен продолжаться, подкрепив свои аргументы ссылками и цитатами из многих судебных решений.

Вскоре адвокаты Avianca написали судье, что им не удалось найти дела, упомянутые в брифе.

Когда дело дошло до дела «Варгезе против China Southern Airlines», они заявили, что «не смогли найти ни это дело, ни какое-либо другое дело, имеющее хоть какое-то сходство с ним».

Они указали на длинную цитату из предполагаемого решения Варгезе, содержащуюся в брифе. «Нижеподписавшийся не смог найти ни эту цитату, ни что-либо подобное», — написали адвокаты Avianca.

Судья Кастель приказал адвокатам Маты предоставить копии решений, упомянутых в их записке. Юристы представили сборник из восьми; в большинстве случаев они указывали суд и судей, выдавших их, номера и даты.

Копия предполагаемого решения Варгезе, например, состоит из шести страниц и говорит, что она была написана членом коллегии из трех судей 11-го округа. Но адвокаты Avianca сказали, что они не смогли найти это или другие дела ни в судебных документах, ни в юридических базах данных.

Барт Банино, юрист Avianca, сказал, что его фирма Condon & Forsyth специализируется на авиационном праве и что ее юристы могут сказать, что дела, о которых идет речь, не соответствуют действительности. Он добавил, что у них есть подозрение, что в этом мог быть замешан чат-бот.

ChatGPT генерирует реалистичные ответы, делая предположения о том, какие фрагменты текста должны следовать за другими, на основе статистической модели, которая содержит миллиарды примеров текста, взятых со всего интернета. В случае Маты программа, похоже, распознала запутанную структуру письменного юридического аргумента, но наполнила его именами и фактами из множества существующих дел.

Судья Кастель провел собственное расследование. Он заявил, что клерк 11-го округа подтвердил, что номер досье, напечатанный на предполагаемом заключении Варгезе, был связан с совершенно другим делом.

Назвав заключение «фальшивым», судья Кастель отметил, что оно содержало внутренние ссылки и цитаты, которых, в свою очередь, не существовало. Он сказал, что пять других примеров, представленных адвокатами Маты, также оказались фальшивыми.

Адвокаты Маты дали показания под присягой, содержащие их версию случившегося.

Шварц заявил, что первоначально он подал иск Маты в суд штата, но после того, как авиакомпания передала его в федеральный суд Манхэттена, где Шварц не допущен к практике, один из его коллег, ЛоДука, стал адвокатом. Шварц сказал, что он продолжал проводить юридические исследования, в которых ЛоДука не участвовал.

Шварц сказал, что он консультировался с ChatGPT, «чтобы дополнить» свою собственную работу, и что, «посоветовавшись» с ним, он нашел полдюжины несуществующих случаев. Он сказал, что ChatGPT заверил его, что все случаи реальны.

Подписывайтесь на ForumDaily NewYork в Google News
WP2Social Auto Publish Powered By : XYZScripts.com