The article has been automatically translated into English by Google Translate from Russian and has not been edited.
Переклад цього матеріалу українською мовою з російської було автоматично здійснено сервісом Google Translate, без подальшого редагування тексту.
Bu məqalə Google Translate servisi vasitəsi ilə avtomatik olaraq rus dilindən azərbaycan dilinə tərcümə olunmuşdur. Bundan sonra mətn redaktə edilməmişdir.

Адвокат використав ChatGPT для судового розгляду: ІІ все зіпсував

30.05.2023, 10:23 EST

Ольга Деркач

Підписуйтесь на ForumDaily NewYork в Google News

Роберто Мата подав до суду на авіакомпанію Avianca, заявивши, що його поранили, коли металевий візок сервіровки вдарив його по коліну під час польоту в міжнародний аеропорт Кеннеді в Нью-Йорку. Але юристи вирішили піти легким шляхом та використали ChatGPT у справі. Що з цього вийшло, розповіло видання. The New York Times .

Коли Avianca попросила федерального суддю Манхеттена закрити справу, адвокати Мати люто заперечували, представивши 10-сторінковий звіт, в якому цитувалося понад півдюжини відповідних судових рішень. Були справи "Мартінес проти Delta Air Lines", "Зікерман проти Korean Air Lines" та "Варгезе проти China Southern Airlines".

Була лише одна проблема: ніхто — ні юристи авіакомпанії, ні навіть сам суддя — не міг знайти рішення чи цитати, наведені в брифі.

Це тому, що ChatGPT все вигадав.

Юрист, який склав звіт, Стівен Шварц із фірми Levidow, Levidow & Oberman, здався на милість суду, заявивши у свідченнях під присягою, що він використав програму штучного інтелекту для проведення своїх юридичних досліджень.

Шварц, який займається юридичною практикою в Нью-Йорку протягом трьох десятиліть, сказав судді Кевіну Кастелю, що він не мав наміру обдурити суд чи авіакомпанію. Шварц сказав, що ніколи не використовував ChatGPT і "тому не знав про можливість того, що вміст може бути хибним".

Він сказав судді, що навіть попросив програму підтвердити, що ці випадки були реальними. І ChatGPT дав позитивну відповідь.

Шварц сказав, що він "дуже шкодує" про те, що покладався на ChatGPT, "і ніколи не робитиме цього в майбутньому без абсолютної перевірки справжності даних".

Суддя Кастель заявив, що йому були представлені «безпрецедентні обставини», юридична постанова, яка рясніє «фальшивими судовими рішеннями та фальшивими цитатами». Він призначив слухання 8 червня для обговорення можливих санкцій.

У міру того, як штучний інтелект захоплює онлайн-світ, він створює антиутопічні образи комп'ютерів, що заміняють не лише людську взаємодію, а й людську працю. Багато людей турбуються про те, що їхня повсякденна діяльність може бути замінена ІІ.

Стівен Гіллерс, професор юридичної етики в Школі права Нью-Йоркського університету, сказав, що це питання стоїть особливо гостро серед юристів, які обговорюють цінність та небезпеку штучного інтелекту, а також необхідність перевірки будь-якої інформації, яку вона надає.

За темою: Вчити англійську з Chat-GPT: як освоїти іноземну мову за допомогою штучного інтелекту

«Наразі обговорюється, як уникнути саме того, що описує цей випадок, – сказав Гіллерс. – Ви не можете просто взяти відповідь ІІ та вставити її у судові документи».

Реальна справа Роберто Мата проти Avianca Inc. показує, що юристи мають ще достатньо часу, перш ніж роботи візьмуть гору.

Як все виявилося

Мата був пасажиром рейсу 670 Avianca із Сальвадора до Нью-Йорка 27 серпня 2019 року, коли співробітник авіакомпанії вдарив його візком для сервірування, згідно з позовом. Після того, як Мата подав до суду, авіакомпанія подала документи з проханням закрити справу через закінчення терміну давності.

У записці, поданій у березні, адвокати Мати заявили, що судовий процес має продовжуватися, підкріпивши свої аргументи посиланнями та цитатами з багатьох судових рішень.

Незабаром адвокати Avianca написали судді, що їм не вдалося знайти справи, згадані у брифі.

Коли справа дійшла до справи "Варгезе проти China Southern Airlines", вони заявили, що "не змогли знайти ні цю справу, ні якусь іншу справу, яка має хоч якусь схожість із нею".

Вони вказали на довгу цитату з гаданого рішення Варгезе, що міститься в брифі. "Нижче підписався не зміг знайти ні цю цитату, ні щось подібне", - написали адвокати Avianca.

Суддя Кастель наказав адвокатам Мати надати копії рішень, згаданих у їхній записці. Юристи представили збірку із восьми; в більшості випадків вони вказували суд і суддів, які їх видали, номери та дати.

Копія передбачуваного рішення Варгезе, наприклад, складається із шести сторінок і каже, що вона була написана членом колегії із трьох суддів 11-го округу. Але адвокати Avianca сказали, що вони не змогли знайти цієї чи іншої справи ні в судових документах, ні в юридичних базах даних.

Барт Баніно, юрист Avianca, сказав, що його фірма Condon & Forsyth спеціалізується на авіаційному праві і що її юристи можуть сказати, що справи, про які йдеться, не відповідають дійсності. Він додав, що вони мають підозру, що в цьому міг бути замішаний чат-бот.

ChatGPT генерує реалістичні відповіді, роблячи припущення про те, які фрагменти тексту повинні йти за іншими, на основі статистичної моделі, що містить мільярди прикладів тексту, взятих з усього Інтернету. У випадку Мати програма, схоже, розпізнала заплутану структуру письмового юридичного аргументу, але наповнила його іменами та фактами з багатьох справ.

Суддя Кастель провів своє розслідування. Він заявив, що клерк 11-го округу підтвердив, що номер досьє, надрукований на передбачуваному ув'язненні Варгезе, був пов'язаний із зовсім іншою справою.

Назвавши висновок «фальшивим», суддя Кастель зазначив, що він містив внутрішні посилання та цитати, яких, у свою чергу, не існувало. Він сказав, що п'ять інших прикладів, представлених адвокатами Мати, також виявилися фальшивими.

Адвокати Мати дали свідчення під присягою, що містять їхню версію.

Шварц заявив, що спочатку він подав позов Мати до суду штату, але після того, як авіакомпанія передала його до федерального суду Манхеттена, де Шварц не допущений до практики, один із його колег Лодука став адвокатом. Шварц сказав, що він продовжував проводити юридичні дослідження, в яких ЛоДука не брав участі.

Шварц сказав, що він консультувався з ChatGPT, щоб доповнити свою власну роботу, і що, порадившись з ним, він знайшов півдюжини неіснуючих випадків. Він сказав, що ChatGPT запевнив його, що всі випадки є реальними.

Підписуйтесь на ForumDaily NewYork в Google News
Автоматична публікація WP2Social На основі: XYZScripts.com