Úterý 06. květnaSvátek má Klaudie Venku je 8 °C, Zataženo

Právník se ztrapnil umělou inteligencí. Proč ChatGPT u soudu neobstála?

Forbes Před 1 rokem

Steven A. Schwartz mířil spokojeně do soudní síně. Zastupoval naštvaného pasažéra letecké společnosti a na protistranu měl desetistránkový spis neprůstřelných dřívějších rozsudků, díky kterým cítil vítězství v kapse.

Když dotyčný právník ještě ten samý den ze soudní síně odcházel, už tak spokojený nebyl. Použité judikáty proti jiným aerolinkám, mluvící jasně ve prospěch Schwartzova klienta, měly malý háček – nikdy se nestaly. A sám Schwartz dnes před stojí před soudem.

Advokát, kterého případ proti kolumbijské aerolince Avianca vynesl mezi nejvyhledávanější právníky světa, si v zápalu nadšení do nových technologií u přípravy klientovy argumentace pomohl umělou inteligencí. Podání smyšlených judikátů a falešných soudních stanovisek, které mu pomohl sestavit jazykový model ChatGPT, pak suverénně přednesl během soudního slyšení.

Až poté, co se advokát zástupce zmateně probíral všemi databázemi a zmiňovaná rozhodnutí nenašel, nařídil soudce Schwartzovi prozradit, kde na ně přišel. Právníkovi nezbývalo než přiznat, že si dopomohl umělou inteligencí.

Advokátovi, který se v newyorské právnické branži pohybuje už tři dekády, i jeho partnerovi Peteru LoDucovi hrozí sankce.

„Kéž bych si to ověřil, ale to jsem neudělal. ChatGPT mě oklamal. Je to trapné,“ uvedl Schwartz ve své obhajobě před federálním soudem. O možnostech umělé inteligence se prý dověděl od svých dětí, údajně se však domníval, že je ChatGPT spolehlivá databáze nadstandardními možnostmi.

Možnosti využití generativní umělé inteligence jsou v oboru hojně zkoumané. Až Schwartzův případ přivedl řeč na možná nevyhnutelná úskalí těchto technologií i etických rozměrů využívání umělé inteligence v konkrétních profesích.

Jazykové modely jako je ChatGPT ve skutečnosti pouze vytvářejí realistické odpovědi na základě statistického modelu. V podstatě analyzují, které úryvky textu by měly následovat po jiných sekvencích, a vycházejí přitom z modelů tvořených miliardami výsledků z pročesávání internetového obsahu.

Ve svém prohlášení se právník Schwartz obhajuje, že ChatGPT nejdřív pokládal řadu jiných otázek a zadání a výsledky se pokaždé zdály bezchybné. „Netušil jsem, že by si ChatGPT mohl případy vykonstruovat,“ vysvětloval, zatímco soudce s jistým opovržením předčítal odstavce falešných rozsudků.

Obdobnou rétorikou se „obhajuje“ i samo ChatGPT.  „Jsem jen AI systém vyvinutý pro poskytování informací a odpovědí na různé otázky, včetně těch týkajících se práva. I když mám ale znalosti z právního prostředí, nejsem právník a nemám právní pověření,“ reaguje na dotaz Forbesu.

Jeho databáze však končí rokem 2021 – o nedávném faux pas před newyorským soudem proto jazykový model zatím nemá tušení.

Případ však svižně zamával soudní praxi napříč Amerikou. Skupina federálních soudců v Texasu například minulý týden vydala požadavek, aby právníci a právničky v jimi projednávaných případech vždy přísahali, že ke své práci nepoužívají umělou inteligenci bez lidské kontroly výsledků.

Pokračovat na celý článek