AI nemá rozhodovat, zda provést razii v domě matky samoživitelky, myslí si Stanislav Mikeš, partner v páté největší české advokátní kanceláři Skils. Opatrní při jejím zavádění musejí ale být i podnikatelé, kteří čelí regulačním úskalím a obtížným otázkám hodnot. Při nesprávném využití přitom může ohrozit i schopnosti zaměstnanců.
„Byl jsem mnohem skeptičtější, teď se na ni ale dívám spíše se skeptickým optimismem,“ říká o umělé inteligenci Stanislav Mikeš, který za esej o jejím vztahu k právu vyhrál už před sedmi lety druhé místo v soutěži Právník roku.
Letos své znalosti vložil do knihy Inteligentní stroje a právo, ve které se věnuje například tomu, kdy je a kdy není vhodné umělou inteligenci využít. Spoléhat na systémy, které dodnes dělají chyby, přitom zrovna v takové oblasti, jako je právo, nemusí být vždy vhodné.
„U složitých případů, které mají více vrstev a musejí se tam hodnotit pojmy jako ‚bez zbytečného odkladu‘, ‚přiměřeně‘ nebo ‚spravedlivě uspořádat poměry‘, může umělá inteligence fungovat spíše jako jakýsi kopilot,“ myslí si Mikeš.
AI už totiž umí zpracovávat masy dokumentů a dělat z nich relativně dobrá shrnutí. Díky tomu se právník může více věnovat samotné analýze, a když si posudek podrobně přečte, nemusí ztrácet čas psaním shrnutí, ale pouze zkontroluje správnost vygenerovaného textu.
„Ty nástroje jsou v podstatě lepší lopata, která vám pomůže být efektivnější a zvládat více věcí. Pomáhá to také juniorním kolegům začít s řešením problému, ale že by to mohlo řešit případy samo, v tom jsem skeptický,“ tvrdí advokát.
Pomáhat by podle něj mohla i soudcům, avšak i u nich bude nutné i nadále číst případy a pečlivě procházet vyjádření stran. „AI zůstává pomocníkem i z toho důvodu, že legislativa je prostě pořád právo pro lidi a o lidech. A myslím, že ti nikam nezmizejí,“ přibližuje Mikeš.
To je podle něj vidět například na domovních prohlídkách. Pokud policie ví, že v bytě, kde ji chce provést, žije matka samoživitelka se dvěma malými dětmi, vzniká tu otázka proporcionality.
„Je ta prohlídka pro případ nezbytně nutná? Anebo je zájem na tom, aby děti netraumatizovalo policejní komando, které tam naběhne? Myslím, že tohle jsou prostě typicky věci, které by měl vždy posuzovat člověk,“ podotýká autor nové knihy.
Unie reguluje, Státy zkoušejí
Na to, jak tyto otázky vyřešit, jsou na světě různé reakce. „Třeba v rámci Spojených států vlastně federální regulace není. Takže každý stát přistupuje k definici systému umělé inteligence jinak,“ říká odborník na právo moderních technologií.
Zajímavé podle něj bylo sledovat, co ten daný stát vlastně zdůrazňuje – jeden tvrdí, že umělá inteligence je něco jiného než člověk a nemůžeme ji s lidskou bytostí ztotožňovat, jiné zase nabízejí definice technicistní.
„To my v Evropské unii jsme myslím schopni dobře si definovat relativně složité právní pojmy,“ chválí advokát. Pro země Unie to u umělé inteligence zajišťuje takzvaný AI akt, na kterém Mikeš oceňuje, že také odlišuje stroj od člověka.
Celkově však advokát vnímá unijní regulaci v něčem za nešťastnou a u umělé inteligence za extenzivní v požadavcích na bezpečnost dat a informací o tom, na čem se modely trénují. V Unii také klademe důraz na to, aby systémy uměly filtrovat některé typy informací.
„Co je, to musíme zregulovat, abychom se pak vůbec mohli dopídit něčeho dalšího,“ popisuje odborník přístup Evropské unie.
„V Americe tohle tolik není, řeší tam více dopady a důsledky. Nechávají volnější průběh stylem ‚ukažte, co umíte a k čemu to bude‘. A pak když zjistí, že to nevede k dobrým věcem, tak se teprve začnou bavit o regulaci,“ vysvětluje advokát.
Podle něj samotného by přitom nemuselo být špatné podobný přístup zavést i u nás a věří, že kdyby konkurenční prostředí fungovalo dobře, spousta problémů by se mohla vyřešit třeba i v rámci soukromého práva.
Taková tradice je ale mnohem typičtější pro Spojené státy, kde už nyní probíhá třeba spor mezi tvůrcem ChatGPT, společností OpenAI, a vydavatelem New York Times. Ten tvrdí, že pro naučení svého modelu vykradla společnost OpenAI jeho obsah. „Je to alternativní model k regulaci, kterou vymáhá ten stát,“ domnívá se Mikeš.
Zatímco se tak chlubíme, že jsme první, kdo přijímají regulace nových technologií, podle Mikeše by bylo vhodné té regulace trošku ubrat a vydat se cestou Spojených států i za cenu toho, že budeme trochu pozadu.
Regulace mohou ohrozit menší podniky
Odlišné podmínky na obou trzích přitom škodí podnikatelům. Mezinárodní korporace se podle Mikeše sice přizpůsobí, ale některé produkty se nejdříve dostanou na americký trh a na ten unijní buď vůbec, nebo se zpožděním, protože je zde potřeba vyhovět regulaci.
Samotným korporacím podle něj jistě nevyhovuje udržovat například třeba dvě různé verze systému, ale nějak se s tím vypořádají a náklady si prostě rozpočítají. „Otázkou je spíše, zda to nebrzdí menší společnosti, které by chtěly konkurovat velkým hráčům, ale musejí rovnou vyhovět velkému množství regulace,“ zamýšlí se advokát.
Menší firmy, které by i měly dobrý produkt a chtěly se na trhu prosadit, se tak musejí hodně věnovat naplnění regulatorních požadavků, které zdaleka tolik nevadí velkým hráčům. Ti sice budou mít o něco nižší zisk, ale podle Mikeše se vždy s regulací vypořádají.
„Například AI akt vyžaduje po provozovatelích systémů relativně podrobný striptýz a nutnost popsat, jak ty algoritmy fungují, co vyhodnocují, a popis množin dat, na kterých se ty modely trénují,“ vysvětluje Mikeš.
Advokát takový požadavek považuje do určité míry za legitimní, avšak věří, že to nemusí být jednoduché a firmám se do toho nemusí chtít. Najednou totiž musejí odkrýt, na čem modely trénují a zda sady dat nejsou postiženy nějakým zkreslením, což by mělo vliv na přesnost nástrojů.
Bezpečnost a transparentnost
Důležitá je podle Mikeše u velkých jazykových modelů i otázka hodnot. Například v lékařství může být při řešení rakoviny kůže důležité, aby měl systém v datech uloženou barvu pleti pacienta.
„Máme zafixováno, že když se člověk ptá na atributy, na základě kterých lze diskriminovat, tak je to samo o sobě vnímáno jako diskriminace. Ten pojem ale znamená rozlišování a z mého pohledu není rozlišovat špatné. Špatné je až to, když na základě toho nezákonně zasáhnete do práv lidí,“ domnívá se Mikeš.
Kontroverzní v tomto může být také vykazování statistik kriminality. Jenže i tady je podle něj třeba mít o národnostech kriminálníků data, protože jen tak lze nastavit sociální programy, které daným lidem dají jinou perspektivu než zločin.
„Takže mi nevadí, když tady bude soutěž různých systémů AI a každý řekne: ‚U nás můžeš tohle, ale nemůžeš toto, protože máme žebříček určitých hodnot.‘ To bude transparentní. Co mně vadí, je, když je ten systém nějakým způsobem zatížený a neřekne vám to,“ poukazuje advokát.
Hodnoty ale mají dvě roviny – vývojářskou a podnikatelskou. Zatímco vývojáři se starají o to, aby splnil podmínky stanovené regulacemi, firmy si zase musejí vyhodnotit, do jaké míry jsou si jisty, že jsou data klientů v bezpečí a nebudou se dostávat k třetím stranám.
Důležitá je zde i transparentnost. „Myslím si, že pokud prodáváte nějakou službu, kterou vygeneruje chatbot, tak to máte klientům říct. Když ho však využijete pouze jako první krok a pak nad tím máte hromadu další analytické práce, tam problém nevidím,“ dodává Mikeš.
Nevyhnutelná, ale jen když je potřeba
„Začínám mít pocit, že je umělá inteligence něco, čemu se nebude dát vyhnout. A v horizontu dvou až pěti let si myslím, že hodně podnikatelů může řešit otázku, jak ji správně implementovat do podmínek své společnosti, aby pomáhala a nebyla jen nákladovou položkou,“ vysvětluje advokát.
Podle něj je jejich zavádění o tom, zda nějakým způsobem usnadňují život a šetří čas. Předtím, než ve firmě do AI investují, by si tak podle Mikeše měli podnikatelé položit otázku, zda jim to opravdu může v něčem pomoci.
Zvláště dobré využití tak může najít u byznysů, které dostávají vstupní data a musejí z nich vygenerovat zprávu. „Pokud jste výrobní podnik, tak tam tu umělou inteligenci můžete mít z části v mechanizaci, ale potom vám to reálně asi už tolik nepřinese,“ dodává Mikeš.
Při zavádění systémů umělé inteligence v podniku je přitom třeba dbát na to, aby je zaměstnanci nebrali za neomylné spasitele. „Žádný výrobce toho softwaru vám nezaručí stoprocentní úspěšnost a z mého pohledu je špatné říkat, že se lidé nemusejí nic učit, protože je všechno dostupné někde na internetu,“ varuje advokát.
Stále se totiž musíme umět zeptat a vůbec vědět, na co se máme ptát. A jelikož je člověk pohodlný tvor, někteří na umělou inteligenci spoléhají, což z pohledu Mikeše není dobré využití takových systémů.
„Z mého pohledu nejlepší použití je, že vám to dá prvotní výstup, ale vy na něj pořád musíte dohlížet. Zaprvé, protože to pořád dělá relativně velké množství chyb, a zadruhé, aby člověk nepřišel o tu znalost jako takovou,“ podotýká Mikeš.
To je důležité i pro to, že když se něco pokazí, odpovědnost vůči zákazníkovi ponese podnikatel, který umělou inteligenci zavedl, protože to ultimátně byl on, kdo ji pro svou službu či výrobek použil.
Podnikatel však v případě problému může jít také za softwarovým vývojářem, i když ti mnohdy svou odpovědnost vylučují a software nabízejí „as is“ – tudíž i s možnými nedostatky.
„Je to prostě lopata a podnikatel, který rozhodl o tom, že tu lopatu bude používat, by pak měl být do nějaké míry zodpovědný za chyby, které při používání nastanou, stejně jako u jakéhokoli jiného nástroje,“ zakončuje advokát Mikeš z kanceláře Skils.
The post Umělá inteligence je lopata. Soudce z ní nebude, říká odborník na právo technologií appeared first on Forbes.











