NOWY JORK — Dwóch przepraszających prawników, którzy odpowiedzieli na wściekłego sędziego sądu federalnego na Manhattanie, oskarżyło ChatGPT w czwartek o nakłonienie ich do włączenia fałszywych badań prawnych do wniosku sądowego.
Adwokaci Stephen A. Schwartz i Peter LoDuca mogą zostać ukarani za złożenie pozwu przeciwko linii lotniczej, który zawierał odniesienia do wcześniejszych spraw sądowych, które według Schwartza były prawdziwe, ale w rzeczywistości zostały wymyślone przez chatbota napędzanego sztuczną inteligencją.
Schwartz powiedział, że użył przełomowego oprogramowania do wyszukiwania precedensów prawnych wspierających sprawę klienta przeciwko kolumbijskiej linii lotniczej Avianca w związku z urazem podczas lotu w 2019 roku.
Chatbot, który olśnił świat, tworząc esejowe odpowiedzi na roszczenia użytkowników, zasugerował kilka przypadków wypadków lotniczych, których Schwartz nie mógł znaleźć zwykłymi metodami stosowanymi w jego kancelarii prawnej.
Problem polegał na tym, że wiele z tych przypadków nie było prawdziwych lub dotyczyło nieistniejących linii lotniczych.
Schwartz powiedział amerykańskiemu sędziemu okręgowemu B. Kevin Castle stwierdził, że „działał w błędnym przekonaniu… że ta strona otrzymywała te problemy z niektórych źródeł, do których nie miałem dostępu”.
Powiedział, że „poniósł porażkę” w przeprowadzeniu dalszych badań, aby upewnić się, że cytaty są prawidłowe.
„Nie rozumiałem, że ChatGPT może wymyślać problemy” – powiedział Schwartz.
Microsoft zainwestował około 1 miliarda dolarów w OpenAI, firmę stojącą za ChatGPT.
Jego sukces, który pokazał, jak sztuczna inteligencja może zmienić sposób, w jaki ludzie pracują i uczą się, wzbudził niepokój niektórych. Setki liderów branży podpisało w maju list ostrzegający, że „łagodzenie ryzyka wyginięcia spowodowanego sztuczną inteligencją powinno być globalnym priorytetem wraz z innymi zagrożeniami społecznymi, takimi jak pandemie i wojna nuklearna”.
Sędzia Castell wydawał się zdumiony i zdenerwowany tym niezwykłym wydarzeniem i rozczarowany, że adwokaci nie podjęli szybkich działań w celu skorygowania fałszywych cytatów prawnych, kiedy po raz pierwszy zostali powiadomieni o problemie przez adwokatów Avianca i sąd. Avianca powołała się na fałszywe orzecznictwo w marcowym zgłoszeniu.
Sędzia skonfrontował Schwartza z jedną sprawą prawną wymyśloną przez program komputerowy. Początkowo opisywano ją jako sprawę o bezprawną śmierć wniesioną przez kobietę przeciwko linii lotniczej, która zamieniła się w pozew dotyczący mężczyzny, który spóźnił się na lot do Nowego Jorku i musiał ponieść dodatkowe koszty.
„Czy możemy się zgodzić, że jest to nonsens prawny?” — zapytał Castell.
Schwartz powiedział, że błędnie uważał, że zagmatwana prezentacja była spowodowana fragmentami zaczerpniętymi z różnych części sprawy.
Kiedy Castel skończył go przesłuchiwać, Schwartz zapytał, czy ma coś jeszcze do powiedzenia.
„Chciałbym szczerze przeprosić” – powiedział Schwartz.
Dodał, że w wyniku pomyłki cierpiał osobiście i zawodowo i czuł się „zawstydzony, upokorzony i głęboko skruszony”.
Powiedział, że on i firma, dla której pracował – Livido, Livido i Opperman – wprowadzili zabezpieczenia, aby nic podobnego się nie powtórzyło.
Luduca, drugi prawnik, który pracował nad tą sprawą, powiedział, że ufa Schwartzowi i nie przejrzał odpowiednio tego, co zebrał.
Po tym, jak sędzia przeczytał na głos fragmenty jednej z cytowanych spraw, aby pokazać, jak łatwo było rozpoznać, że to „bełkot”, Loduca powiedział: „Nigdy nie przyszło mi do głowy, że to była fałszywa sprawa”.
Powiedział, że wynik „boli mnie bez końca”.
Ronald Minkoff, prawnik kancelarii, powiedział sędziemu, że wniosek „spowodował zaniedbanie, a nie złą wolę” i nie powinien skutkować karami.
Prawnicy historycznie mieli trudności z technologią, zwłaszcza nową technologią, powiedział, „i nie stało się to wcale łatwiejsze”.
Pan Schwartz, który ledwo zajmuje się badaniami federalnymi, zdecydował się na użycie tej nowej technologii. Minkoff powiedział, że myślał, że ma do czynienia ze standardową wyszukiwarką, a to, co robił, było igraniem z żywym ogniem.
Daniel Shen, profesor nadzwyczajny i zastępca dyrektora ds. badań w Centre for Legal and Court Technology w College of William & Mary Law, powiedział, że przedstawił sprawę Avianki podczas konferencji w zeszłym tygodniu, która przyciągnęła dziesiątki uczestników osobiście i online z stanowych i federalnych . Sądy w Stanach Zjednoczonych, w tym Sąd Federalny na Manhattanie.
Powiedział, że temat wywołał szok i zamieszanie na konferencji.
„Mówimy o południowym dystrykcie Nowego Jorku, okręgu federalnym, który zajmuje się poważnymi sprawami, 9/11 dla wszystkich dużych przestępstw finansowych” – powiedział Sheen. „To był pierwszy udokumentowany przypadek możliwego wykroczenia zawodowego ze strony prawnika korzystającego z generatywnej sztucznej inteligencji”.
Powiedział, że sprawa pokazała, jak prawnicy mogą nie rozumieć, jak działa ChatGPT, ponieważ ma tendencję do halucynacji, mówiąc o fikcyjnych rzeczach w sposób, który wydaje się realistyczny, ale taki nie jest.
„Podkreśla niebezpieczeństwa związane z używaniem obiecujących technologii sztucznej inteligencji bez znajomości ryzyka” – powiedział Shen.
Sędzia powiedział, że o karach zdecyduje później.
More Stories
JPMorgan oczekuje, że Fed obniży w tym roku referencyjną stopę procentową o 100 punktów bazowych
Akcje giganta chipów sztucznej inteligencji Nvidia spadły pomimo rekordowej sprzedaży wynoszącej 30 miliardów dolarów
Stowarzyszenie Graczy NFL pozywa DraftKings na kwotę około 65 milionów dolarów