Kontaktujte nás
Domů AI před soudem: Evropa pomalu formuje hranice odpovědnosti umělé inteligence

AI před soudem: Evropa pomalu formuje hranice odpovědnosti umělé inteligence

25. 11. 2025



Hranice odpovědnosti umělé inteligence

autoři: JUDr. Samuel Král, Mgr. Simona Krejčí

Závěr roku 2025 přináší sérii přelomových soudních rozhodnutí, která zásadně ovlivní právní postavení umělé inteligence v Evropě. Zatímco britský soud v kauze Getty Images vs. Stability AI potvrdil, že modely umělé inteligence samy o sobě nejsou kopií děl, na nichž se učí a AI model neporušuje autorská práva, pokud neuchovává původní data. Berlínský zemský soud uznal, že AI-klon hlasu herce a dabéra Manfreda Lehmanna (oficiálního hlasu Bruce Willise) představuje zásah do obecného osobnostního práva, zejména při komerčním využití. Naopak mnichovský soud ve věci GEMA vs. OpenAI rozhodl, že výjimka pro text a data mining (TDM) se nevztahuje na trénink modelů generativní AI na textech chráněných autorským právem, čímž zásadně zpochybnil možnost využívat chráněná data bez souhlasu autorů. Takto shrnuté to vypadá jednoduše, ale tak jednoduché to není.

Getty Images vs. Stability AI: Důležitý rozsudek o hranicích odpovědnosti generativní umělé inteligence

Britský Nejvyšší soud vydal dlouho očekávané rozhodnutí ve věci Getty Images vs. Stability AI, které se stává jedním z nejvýznamnějších rozsudků v oblasti generativní umělé inteligence. Getty Images je databáze obrázků a fotografií, jejíž business model je založený na prodeji licencí k těmto obrázkům. Stability AI je LLM model, který umožňuje generovat obrázky dle vložených promptů. Soud většinu žalobních nároků společnosti Getty Images zamítl a uznal pouze „historické a velmi omezené“ porušení ochranné známky iStock.

Vývoj sporu

Spor vznikl v lednu 2023, kdy zakladatel Stability AI veřejně uvedl, že proces trénování modelu Stable Diffusion proběhl „v souladu s etickými a právními standardy“. Krátce poté reagovala společnost Getty Images, která Stability obvinila z neoprávněného kopírování a zpracování milionů fotografií chráněných autorským právem a s nimi souvisejících metadat. Součástí těchto fotografií byly i vodoznaky obsahující ochranné známky Getty Images a iStock. V rámci sporu Getty Images na počátku uplatnil mnoho porušení jejich práv, včetně porušení autorských práv, práv k fotografiím a podobně. Nicméně v průběhu sporu bylo prokázáno, že pokud by snad docházelo k porušování autorských práv, docházelo k tomu mimo UK, a tedy dané nemůže být předmětem tohoto sporu před soudy UK. Getty Images okrajovaly své nároky na poslední dva, které nakonec byly sudem rozhodovány.

Autorská práva a Ochranné známky

Soud se proto zaměřil na dvě poslední klíčové otázky: zda lze samotný model Stable Diffusion považovat za neoprávněnou kopii děl společnosti Getty Images a zda docházelo k porušování práv k ochranným známkám tím, že model generoval obrázky tak, že nadále obsahovaly vodoznaky Getty Images a iStock.

V této otázce neoprávněné kopie dospěl k závěru, že nikoliv. Bylo zjištěno, že Stable Diffusion model neuchovává původní snímky, ale pouze numerické vzorce naučené z tréninkových dat. Výrazný rozdíl mezi objemem dat k učení (220 TB) a velikostí samotného modelu (3,4 GB) podle soudu potvrzuje, že originální díla nejsou v systému fyzicky obsažena. Bohužel otázka toho, jestli kopie fotografie uložená v RAM paměti při čtení a učení modelu, nebyla klíčová pro tento závěr soudu, byť ji vzal také v úvahu.

Za druhé, zda výstupy modelu představují porušení jejích ochranných známek. V této oblasti Getty namítala, že některé výstupy obsahovaly její vodoznaky. Soud uznal, že u nejstarších verzí modelu se mohly objevit kvůli chybě způsobené tréninkem. Novější verze však tuto vadu odstranily. Je také zajímavé, že obranou Stable bylo, že je to vina uživatelů, kteří záměrně generují obrázky tak, aby obsahovaly logo iStock a Getty Images.  Soud si proto vyžádat statistiky promptů a zjistil, že neexistuje důkaz, že by podobné výstupy generovali záměrně uživatelé, respektive že by uživatelé používali Stable Diffusion model k záměrnému generování obrázků s logem iStock. Proto soud uznal pouze omezené porušení ochranné známky iStock (skrze první verzi modelu Stable Diffusion) a ostatní nároky zamítl.

Závěry

Pokud LLM model neukládá kopie dat, na kterých se učí, pak podle práva UK nebude porušovat práva k obrázkům/fotografiím. To ovšem nemusí platit v rámci EU a ukládání do RAM paměti. Na druhou stranu, pokud model věrohodně zobrazí ochrannou známku patřící jinému bez jeho svolení, a nejedná se o zneužívání ze strany uživatelů, jde o neoprávněné užití ochranné známky.

Manfred Lehmann vs. YouTube: Berlínský soud rozhodl ve prospěch německého dabéra Bruce Willise ve věci AI generování hlasu

Německý herec a dabér Manfred Lehmann, dlouholetý oficiální hlas Bruce Willise, uspěl ve sporu proti provozovateli YouTube kanálu, který bez jeho souhlasu využil AI-klon jeho hlasu ve dvou videích určených ke komerčnímu zhodnocení.

Vývoj sporu

Tvůrce videí provozoval na YouTube úspěšný krajně pravicový kanál. Součástí kanálu byla monetizace reklam a měl téměř 200.000 sledujících. Zároveň provozoval e-shop a podobné platformy, na kterých prodával reklamní předměty spojené se svým kanálem a také politickou ideologií. Tvůrce videí pak vytvořil dvě videa, ve kterých figuroval AI generovaný hlas dabéra Manfreda Lehmanna. Dabér se o tom dozvěděl a rozhodl se podat žalobu, protože spojení s krajně pravicovým kanálem poškozovalo jeho pověst.

Ochrana hlasu

Tvůrce videí argumentoval, že AI-hlas „zakoupil“ a má k němu užívací práva. Soud se zabýval tím, zda může být hlas nebo jeho umělá napodobenina chráněn v rámci obecného osobnostního práva. Zatímco právo k podobizně je v německé právní úpravě zakotveno, ochrana hlasu vychází výhradně z judikatury (v tom rozdíl od Česka). Podle rozhodovací praxe se osobnostní právo vztahuje i na komerční využití výrazných osobnostních rysů, pokud mají ekonomickou hodnotu. A právě v tom soud shledal zásah, použití imitace Lehmannova hlasu mělo zjevně obchodní účel.

Ačkoli nešlo o nahrávku jeho skutečného hlasu, soud zdůraznil, že způsob napodobení je právně irelevantní. Rozhodující je, zda si významná část publika mohla mylně vyložit, že hlas byl použit se souhlasem dabéra, respektive že jde o jeho hlas. Tento test byl naplněn, jelikož řada diváků v komentářích označovala hlas za autentický.

Umělecká licence vs. komerční zneužití

Soud se následně také zabýval otázkou, zda použití hlasu lze ospravedlnit svobodou projevu a umělecké tvorby. Tvůrce tvrdil, že šlo o satiru politických témat, avšak soud konstatoval, že primárním cílem bylo komerční zhodnocení. Kromě absence uměleckého záměru soud zohlednil i reputační riziko Lehmanna z důvodu vyhraněného obsahu na tomto kanálu. Soud uznal, že užití uměle vytvořené imitace hlasu představuje zásah do obecného osobnostního práva, byť německé právo výslovnou ochranu hlasu v zákoně neupravuje, a že Lehmann má nárok na odškodnění.

Závěr

V tomto případě šlo o poměřování ochrany osobnosti a projevů osobní povahy a práva na svobodu slova a satiru a uměleckou svobodu, kdy právo na ochranu osobnosti zvítězilo. Tyto závěry budou pravděpodobně přenositelné i do našeho prostředí, včetně případné úvahy nad tím, jestli jde o dostatečnou satiru a nejedná se spíše o komerční využití bez satirického nádechu.

GEMA vs. OpenAI: Mnichovský soud vymezil hranice trénování AI na chráněných dílech

Mnichovský zemský soud vydal 11. listopadu 2025 očekávaný rozsudek ve věci GEMA vs. OpenAI. Ten představuje zásadní posun v přístupu k využívání autorsky chráněných děl při trénování modelů umělé inteligence. Soud se postavil na stranu německého kolektivního správce GEMA a rozhodl, že trénování modelu ChatGPT na chráněných textech není kryto výjimkou pro text a data mining (TDM).

Vývoj sporu

GEMA, zastupující autory a vydavatele hudebních děl, se domáhala zákazu zásahu do práv a náhrady škody vůči společnosti OpenAI. Tvrdila, že model ChatGPT generuje výstupy obsahující části textů písní totožné s originály. To znamená, že OpenAI při trénování neoprávněně zpracovala chráněná díla a zároveň, že tato díla neoprávněně rozmnožila ve svém modelu. OpenAI se hájila tím, že model nevytváří kopie, ale pouze „odraz toho, co se naučil“ (viz podobně jako v Stability Diffusion), a že trénink je kryt zákonnou výjimkou pro analýzu textů a dat (TDM). Zároveň se hájila tím, že pokud dochází k reprodukci textů, je to z důvodu ležících na straně uživatelů, kteří zadávají prompty tak, aby byly reprodukovány dané texty (opět podobně, jako Stability).

Klíčové závěry soudu

Soud se s argumentací OpenAI neztotožnil. Konstatoval, že pokud model dokáže reprodukovat části konkrétních děl, jedná se již o rozmnožování. Takové rozmnoženiny nelze považovat za povolené v rámci TDM. Trénink generativní AI neslouží pouze k analytickému účelu, ale k vytvoření nového komerčního produktu. Soud rovněž zdůraznil, že TDM výjimka má chránit vědecký a výzkumný přístup k datům, nikoli plošné komerční využití cizích děl.

Dopady Rozhodnutí

Rozhodnutí britského, berlínského a mnichovského soudu představují zásadní vodítka pro vývoj a právní regulaci generativní umělé inteligence v Evropě. Britský soud potvrdil, že samotné využívání existujících děl při tréninku modelů neznamená porušení autorského práva, pokud model tato díla fyzicky neuchovává ani nereprodukuje. Berlínský soud uzavřel, že ochrana osobnosti dopadá i na hlas a jeho syntetické napodobeniny a jasně vymezil hranici mezi uměleckou svobodou a komerčním zneužitím. Mnichovský soud pak představuje důraz na ochranu autorů, osobnostních a morálních práv a oproti britskému soudu zpřesňuje, že neoprávněnou rozmnoženinou může být, i pokud se LLM model naučil z autorského díla a je schopen jej reprodukovat.

Společně tato rozhodnutí potvrzují, že Evropa hledá rovnováhu mezi inovací a ochranou práv v éře generativní AI. Proti uvedeným rozhodnutím je nicméně možné se odvolat, takže bude zajímavé sledovat, zda a jak se závěry soudů budou dále vyvíjet. Zároveň je zajímavé, že základním módem obrany provozovatelů LLM modelů je „hodit to na uživatele“. Provozovatelé se snaží cílit na indemnitu pro uživatelsky vkládaný obsah, nicméně jsou to pořád provozovatelé LLM modelů, kteří je nějak naučili, za nějakým účelem a uživatelé je pouze v souladu s tímto účelem používají (mimo excesy, samozřejmě). Tato obrana nezabrala ani v jednom z případů, což lze kvitovat.



Další články

Udělejte první krok k naší spolupráci

Ať už hledáte právní konzultaci, nebo dlouhodobého partnera, nezávazně se nám ozvěte.

Nejpozději následující pracovní den se s vámi spojíme a vymyslíme další postup.







    Odesláním formuláře berete na vědomí, že ROWAN LEGAL, advokátní kancelář s.r.o. bude poskytnuté osobní údaje zpracovávat za účelem vyřízení Vašeho požadavku. Více informací, včetně informací o Vašich právech a právu odvolat výše uvedené souhlasy, se dozvíte v Informacích o zpracování osobních údajů.