Pátek 29. srpnaSvátek má Venku je 17 °C, Skoro Jasno

Říkáte chatbotům důvěrné informace? Můžou je vidět zaměstnanci AI firem nebo se stát součástí příští verze modelu

Investigace.cz Před 22 hodinami

Osobní údaje, čísla platebních karet nebo detaily lékařských diagnóz. Lidé při rozhovorech s velkými jazykovými modely jako ChaGPT často sdělují důvěrné podrobnosti ze svých životů. Záznamy konverzací ale slouží technologickým firmám nejen k vylepšování stávajících modelů, ale i k tréninku těch budoucích. Osobní informace se tak mohou stát základem odpovědí, které dostanou jiní uživatelé.

V redakci investigace.cz jsme se zaměřili na šest oblíbených jazykových modelů a zkoumali jsme, jak dle vlastních podmínek užívání zacházejí s konverzacemi uživatelů. Jednalo se o modely OpenAI ChatGPT, Anthropic Claude, X Grok, Microsoft Copilot, DeepSeek a Google Gemini. I když jednotlivé nástroje působí podobně, v nakládání s daty jsou mezi nimi rozdíly.

Srovnání ukazuje tabulka níže, obecně ale pro běžné uživatele platí, že u bezplatných verzí i těch placených je trénink na informacích uživatelů častý a po přihlášení bývá automaticky zapnutý. Výjimku v tomto směru představuje Anthropic Claude a v Evropské unii Grok.

V případě ChatGPT, Groku, Microsoft Copilotu a DeepSeku je možné svá data z trénování modelů vyloučit. Microsoft Copilot a Google si ale výslovně vyhrazují, že jednotlivé konverzace s modelem mohou jeho zaměstnanci prohlížet. V Google Gemini je možné tomu, aby se data stala součástí tréninku, zamezit, a to pouze tím způsobem, že uživatel vypne jejich ukládání.

To vše platí pro data uživatelů z běžných registrovaných účtů. Vedle toho nabízejí všechny výše citované společnosti různé formy účtů byznysových, určených pro firmy či jiné korporace. Ty jsou často o poznání dražší, avšak poskytují větší soukromí. Společnosti se tak snaží vyjít vstříc firemním zákazníkům, kteří usilují o ochranu svých obchodních tajemství. Ostatně za sdělení osobních údajů neoprávněným osobám jim hrozí, zejména v EU, citelné pokuty.

 

Jak se jednotlivé modely učí na datech uživatelů

Model Základní nastavení pro trénink Možnost vypnutí učení z konverzace
ChatGPT (OpenAI) Data uživatelů, kteří využívají verzi zdarma nebo běžné placené verze, jsou automaticky používána pro další trénování modelu. Uživatel má možnost ručně vypnout použití vložených dat pro učení.

Pokud uživatelé používají dražší verze, Enterprise nebo Team, jejich data nejsou využívána k trénování modelu.

Běžný placený uživatel může vypnout trénink na svých datech.

Účty Enterprise a Team mají sdílení dat uživatelů v základním nastavení vypnuté a uživatel si jej může zapnout.

Claude (Anthropic) Běžné konverzace nejsou používány pro trénink modelu v žádném typu účtu. Je umožněn dobrovolný podíl na vylepšení modelu. Běžný uživatel i byznys účet má učení na datech vypnuté.

Uživatel může k odpovědím AI poskytovat zpětnou vazbu, a tím přispívat k jejímu učení se na jeho datech.

Grok (X) V rámci EU nejsou konverzace uživatelů využívány pro trénink modelu, uživatel ale může tuto možnost povolit

Mimo EU se Grok na datech uživatelů učí, v nastavení je však možné tuto možnost vypnout.

Data uživatelů placené verze Enterprise nejsou pro trénink modelu využívána.

Uživatel může v nastavení vypnout či zapnout možnost učení na jeho datech.

U nepřihlášených uživatelů mimo EU/UK nemusí být možnost nastavení práce s jejich daty (opt-out) dostupná.

DeepSeek V základním nastavení jsou data uživatelů používána pro další trénování modelu. Uživatel musí učení vypnout. Trénování lze vypnout v nastavení.
Microsoft Copilot Data uživatelů verze zdarma a osobní verze Microsoft Copilot jsou používána pro další trénování modelu. Microsoft si vyhrazuje právo, aby konverzace prohlíželi i jeho lidé pro případné zlepšování modelu.

Data uživatelů Microsoft 365 Copilot nejsou využívána k trénování.

Pro běžného uživatele je možné vypnout trénování na jeho datech.

Data z byznysových účtů nejsou k učení využívána.

Google Gemini  Data uživatelů běžného účtu Gemini jsou využívána k tréninku modelů. Google si vyhrazuje právo, aby konverzace prohlíželi i jeho lidé.

Data uživatelů verze Google Workspace nejsou pro trénink využívána.

Uživatel běžného účtu nemůže trénování vypnout, může ale zapnout neukládání konverzací, a tím zabránit jejich využití pro trénink.

Nutno dodat, že celý článek se zakládá jen na informacích, které samotné technologické společnosti uvádějí ve svých uživatelských podmínkách. Ty pochopitelně nic neříkají o tom, jaké informace zmíněné firmy předávají zpravodajským službám ve svých domovských zemích, což jsou USA a Čína. Velké technologické společnosti v některých případech navíc nerespektují své podmínky ve vztahu k uživatelům, protože jak v USA, tak i v Číně jsou vázány lokálními zákony.

Nicméně velké jazykové modely nejsou jediné, jež využívají data svých uživatelů k trénování nových produktů. Licenční podmínky populárního překladače DeepL například uvádějí, že pokud jej používáte v bezplatné verzi, souhlasíte s tím, že zadané texty bude využívat k trénování překladače.

Chuť používat privátní uživatelská data k trénování mají i firmy, které AI přímo nevyvíjejí. V létě kupříkladu změnila pravidla užívání společnost WeTransfer. Její nová klauzule tehdy umožnila využívání nahraných souborů i pro trénink AI. Nicméně firma po silných protestech komunity klauzuli změnila a dnes si dává velmi záležet, aby bylo jasné, že data uživatelů jsou u ní v bezpečí.

Kde se používají data lidí k tréninku 

Při trénování velkých jazykových modelů musíme rozlišit dvě fáze. První se označuje jako pre-training, druhá post-training. V první fázi, zjednodušeně řečeno, se trénuje neuronová síť na miliardách textů nasbíraných po celém internetu či v dalších zdrojích. Výsledkem je základní model, který neumí víc než pouhé pokračování v textových řetězcích, jež mu zadáte.

V post-trainingové fázi je pak model dolaďován tak, aby působil užitečně při zadaných úkolech, snažil se uživateli vyjít vstříc a zároveň neposkytoval informace považované za škodlivé, jako jsou například návody na výrobu drog.

Nejznámější technikou je Reinforcement Learning from Human Feedback (RLHF) neboli učení prováděné na základě posilování s lidskou zpětnou vazbou. V praxi jde o to, že lidští anotátoři hodnotí nebo vybírají nejlepší odpovědi modelu a ten je pak dál trénován, aby preferoval odpovědi, jež byly vyhodnoceny jako kvalitní.

Právě tato technika vyžaduje přímou akci člověka. Buď ji uživatel provádí sám, například když ChatGPT nebo jiný model vygeneruje dvě možné odpovědi a nechá uživatele rozhodnout, která je lepší, anebo technologická společnost ukáže celou konverzaci lidskému anotátorovi, který odpovědi AI ohodnotí. Není konkrétně známé, nakolik firmy čtení uživatelských konverzací za účelem vylepšení modelů v praxi využívají, Google si ale toto právo vyhrazuje přímo v podmínkách pro osobní účty a účty zdarma.

Druhou významnou metodou je pak tzv. supervise fine-tuning, kdy vývojáři předkládají modelu sady preferovaných odpovědí na vybrané otázky. Posilují tak generování určitých informací na úkor jiných. K tomu mohou posloužit právě i data uživatelů samotné služby, v praxi se tedy může stát, že součástí odpovědí se stanou třeba čísla vašich kreditních karet.

Pokud se tomu chcete vyhnout, používejte ty AI a jejich verze, které vám dávají alespoň nějakou kontrolu nad tím, co s vašimi daty dělají. Vždy si zkontrolujte, zda máte vše správně nastaveno, a přemýšlejte rovněž nad tím, jak moc by vám vadilo, pokud by vaši konverzaci četl někdo jiný.

Autor: Josef Šlerka

 

The post Říkáte chatbotům důvěrné informace? Můžou je vidět zaměstnanci AI firem nebo se stát součástí příští verze modelu appeared first on investigace.cz.

Pokračovat na celý článek