Steven A. Schwartz mířil spokojeně do soudní síně. Zastupoval naštvaného pasažéra letecké společnosti a na protistranu měl desetistránkový spis neprůstřelných dřívějších rozsudků, díky kterým cítil vítězství v kapse.
Když dotyčný právník ještě ten samý den ze soudní síně odcházel, už tak spokojený nebyl. Použité judikáty proti jiným aerolinkám, mluvící jasně ve prospěch Schwartzova klienta, měly malý háček – nikdy se nestaly. A sám Schwartz dnes před stojí před soudem.
Advokát, kterého případ proti kolumbijské aerolince Avianca vynesl mezi nejvyhledávanější právníky světa, si v zápalu nadšení do nových technologií u přípravy klientovy argumentace pomohl umělou inteligencí. Podání smyšlených judikátů a falešných soudních stanovisek, které mu pomohl sestavit jazykový model ChatGPT, pak suverénně přednesl během soudního slyšení.
Až poté, co se advokát zástupce zmateně probíral všemi databázemi a zmiňovaná rozhodnutí nenašel, nařídil soudce Schwartzovi prozradit, kde na ně přišel. Právníkovi nezbývalo než přiznat, že si dopomohl umělou inteligencí.
Advokátovi, který se v newyorské právnické branži pohybuje už tři dekády, i jeho partnerovi Peteru LoDucovi hrozí sankce.
„Kéž bych si to ověřil, ale to jsem neudělal. ChatGPT mě oklamal. Je to trapné,“ uvedl Schwartz ve své obhajobě před federálním soudem. O možnostech umělé inteligence se prý dověděl od svých dětí, údajně se však domníval, že je ChatGPT spolehlivá databáze nadstandardními možnostmi.
Možnosti využití generativní umělé inteligence jsou v oboru hojně zkoumané. Až Schwartzův případ přivedl řeč na možná nevyhnutelná úskalí těchto technologií i etických rozměrů využívání umělé inteligence v konkrétních profesích.
Jazykové modely jako je ChatGPT ve skutečnosti pouze vytvářejí realistické odpovědi na základě statistického modelu. V podstatě analyzují, které úryvky textu by měly následovat po jiných sekvencích, a vycházejí přitom z modelů tvořených miliardami výsledků z pročesávání internetového obsahu.
Ve svém prohlášení se právník Schwartz obhajuje, že ChatGPT nejdřív pokládal řadu jiných otázek a zadání a výsledky se pokaždé zdály bezchybné. „Netušil jsem, že by si ChatGPT mohl případy vykonstruovat,“ vysvětloval, zatímco soudce s jistým opovržením předčítal odstavce falešných rozsudků.
Obdobnou rétorikou se „obhajuje“ i samo ChatGPT. „Jsem jen AI systém vyvinutý pro poskytování informací a odpovědí na různé otázky, včetně těch týkajících se práva. I když mám ale znalosti z právního prostředí, nejsem právník a nemám právní pověření,“ reaguje na dotaz Forbesu.
Jeho databáze však končí rokem 2021 – o nedávném faux pas před newyorským soudem proto jazykový model zatím nemá tušení.
Případ však svižně zamával soudní praxi napříč Amerikou. Skupina federálních soudců v Texasu například minulý týden vydala požadavek, aby právníci a právničky v jimi projednávaných případech vždy přísahali, že ke své práci nepoužívají umělou inteligenci bez lidské kontroly výsledků.