MENU

Autoři: JUDr. Josef Donát, LL.M. a Mgr. Martin Boroš

Zdroj: SystemOnline

Umělá inteligence hraje v IT byznysu i v jiných sektorech čím dál větší roli. V mnoha případech jde jen o marketingovou nálepku, která má pomocí často skloňovaného pojmu pomoci prodat jinak běžný softwarový produkt nebo službu. Čím dál více se ale lze setkat se systémy, které skutečně pracují do značné míry autonomně na bázi strojového učení. Důsledkem je, že chování těchto systémů nedokážeme v některých situacích stoprocentně předvídat ani vysvětlit. To samozřejmě představuje výzvu pro právo, kde pojmy jako odpovědnost, zavinění nebo třeba autorství hrají klíčovou roli.

Evropský parlament v říjnu 2020 výraznou většinou podpořil iniciativy Evropské komise zaměřené na řešení právních výzev souvisejících s využitím umělé inteligence. Výsledkem těchto iniciativ by v průběhu roku 2021 měly být návrhy nových právních předpisů jako základ budoucí specifické regulace pro využití umělé inteligence.  Taková regulace v České republice v této chvíli neexistuje. Bylo by však chybou se domnívat, že právo na umělou inteligenci žádným způsobem nedopadá a lze ji využívat bez jakýchkoli omezení. Na její využití i v této chvíli naopak dopadá celá řada požadavků různých předpisů.

Cílem tohoto článku je představit ty požadavky současné legislativy, které jsou klíčové pro byznys, a představit i několik otázek, které by případná budoucí legislativa mohla upravovat ve větším detailu.

1.Umělá inteligence a právo duševního vlastnictví.
Každý systém umělé inteligence na konci dne tvoří především software. Ten je z pohledu práva duševního vlastnictví chráněn především jako autorské dílo.

Proto ten, kdo chce daný systém využít, musí k němu získat licenci. V tomto směru se přitom systémy umělé inteligence zásadně neliší od jiného softwaru – vždy je třeba zkoumat, zda licence poskytuje zájemci dostatečný rozsah využití z hlediska množství, území i doby trvání a ověřit si význam používaných pojmů.

Významnou součástí fungování umělé inteligence je i proces strojového učení, který je většinou založen na využití co největšího množství tréninkových dat. Využití těchto dat ale může právo duševního vlastnictví omezovat. Tréninková data můžou být chráněna jako autorské dílo (např. pokud jde o texty či obrazy) nebo jako databáze (pokud byl vynaložen podstatný vklad na jejich shromáždění či uspořádání). Pro vytěžování takové databáze je třeba získat licenci od vykonavatele příslušných práv a této povinnosti nás nezbavuje ani to, když je databáze sama o sobě veřejně dostupná.

Lze tak shrnout, že z hlediska práva duševního vlastnictví je při využití umělé inteligence třeba zajistit si patřičné oprávnění k využití příslušného systému i jakýchkoli tréninkových dat. Zároveň toto právo chrání produkty společností před neoprávněným využitím ze strany třetích osob.

2.Umělá inteligence a odpovědnost za škodu.
Jednou ze zásadních otázek souvisejících s umělou inteligencí, které se věnuje mj. i iniciativa Evropského parlamentu, je otázka odpovědnosti za její jednání a zejména pak za škodu jí způsobenou. Často není vůbec jednoduché určit osobu, která by za případnou škodu způsobenou umělou inteligencí měla být odpovědná. Má to být autor softwaru tvořícího systém umělé inteligence, která způsobila škodu? Nebo to má být společnost, která vytvořila výrobek, který je založen na využití této umělé inteligence (např. autonomní vozidlo)? Má to být společnost, která využívá tento produkt v konkrétní situaci, ve které škoda vznikla? Nebo to má být ještě někdo jiný?

Na tyto otázky je třeba v současnosti hledat odpověď v občanskoprávních předpisech, v České republice zejména v občanském zákoníku. V první řadě je třeba uvést, že každý je povinen předcházet vzniku škody. Na toto pravidlo je tak třeba myslet v rámci vývoje umělé inteligence.

Při posuzování odpovědnosti je třeba posuzovat konkrétní okolnosti případu, kromě jiného i to, v jakém postavení jsou relevantní osoby. V případě, že umělá inteligence způsobí škodu osobě, která ji využívá na základě smlouvy s poskytovatelem dané služby nebo produktu, je tento poskytovatel povinen nahradit škodu z toho vzniklou druhé smluvní straně. Jde o přísnou, tzv. objektivní odpovědnost. Poskytovatel se jí může zprostit pouze, prokáže-li, že mu ve splnění povinnosti zabránila mimořádná a nepřekonatelná překážka, jejíž vznik nemohl ovlivnit.

Naopak, pokud takový smluvní vztah mezi škůdcem a poškozeným neexistuje, lze v tomto případě uvažovat zejména o tzv. odpovědnosti za škodu způsobenou provozem zvlášť nebezpečným (§ 2925). Odpovědnou je v tomto případě osoba, která provozuje takové zvlášť nebezpečné zařízení. Opět se jedná o přísnou odpovědnost, které se lze zprostit jen za poměrně úzce vymezených podmínek (například v důsledku tzv. vyšší moci).

V konkrétních případech mohou být aplikovány i další režimy na základě konkrétních okolností (např. odpovědnost za vadu výrobku apod.). I z tohoto je zjevné, že regulace odpovědnosti je složitou oblastí. Je proto třeba na tyto aspekty myslet v rámci uzavírání smluvních vztahů mezi poskytovateli služeb a produktů, případně smluv s vývojáři a dalšími osobami.

3.Umělá inteligence a ochrana osobních údajů.
Běžně se stává, že data pro trénink systému umělé inteligence zahrnují i osobní údaje. S osobními údaji ale nelze nakládat bez omezení; naopak právní úprava obsahuje řadu povinností, které musí každá osoba zpracovávající takové údaje splnit.

Ještě před samotným nasazením umělé inteligence je potřeba zvážit, zda je využití osobních údajů skutečně nutné a zda není možné stejného výsledku dosáhnout se zcela nebo alespoň částečně anonymizovanými daty.

Pokud je nezbytné využít osobní údaje, pak je v dalším kroku třeba stanovit účely tohoto zpracování a právní tituly. Ty se budou vždy lišit dle konkrétního využití údajů. Následně je třeba zajistit informování osob, kterých se údaje týkají, pokud již o zpracování nebyly informovány v minulosti, nebo nelze aplikovat některou z výjimek. Ještě přísnější pravidla se aplikují, pokud systém umělé inteligence činí rozhodnutí, která mají zásadní dopady na právní postavení fyzické osoby (např. systém rozhoduje o odmítnutí uchazeče o zaměstnání).

Z hlediska dokumentace bude zpravidla třeba zpracovat tzv. posouzení vlivu zamýšlených operací zpracování na ochranu osobních údajů a doplnit záznamy o činnostech zpracování osobních údajů.

Regulace ochrany osobních údajů tak klade významné požadavky na posuzování tréninkových dat a oprávnění k jejich využití, jejichž splnění je třeba posoudit při vývoji systému i při jeho nasazení.

4.Umělá inteligence a diskriminace (etické aspekty).
Všemi výše nastíněnými právními aspekty se problém diskriminace line jako pomyslná červená niť. Umělá inteligence totiž do jisté míry pracuje na principu tzv. černé skříňky (black box). Umělá inteligence se učí a následně činí rozhodnutí na základě velkého množství dat. Tato rozhodnutí mohou obsahovat určitá zkreslení, která umělá inteligence může do jisté míry kopírovat. Tím dochází ke zkreslení algoritmů, což může mít (a v praxi se to i projevuje) za následek zakotvení „předsudků“ v systému umělé inteligence (algorithmic bias), vedoucích k diskriminaci určitých osob nebo skupin osob. Takový stav je ale samozřejmě v rozporu zejména s antidiskriminační legislativou.

Tomuto problému je tak třeba předcházet cíleným zaměřením se na prevenci, kontrolu a ověřování, které bude probíhat jak při přípravě a zpracování tréninkových dat, tak i následně v rámci využívání umělé inteligence.

5. Bílá místa současné legislativy.
V předchozích bodech byla popsána řada právních aspektů, kterými současná právní úprava reguluje využití umělé inteligence. Nelze proto hovořit o neexistenci pravidel pro využití umělé inteligence. I přesto lze ale identifikovat některá „bílá místa“, která by případná budoucí legislativa mohla upravovat ve větším detailu.

Jak bylo již naznačeno výše, určování osoby odpovědné za škodu způsobenou umělou inteligencí je složité. Bylo by vhodné i s ohledem na určení odpovědností subjektů definovat funkční mechanismus, na základě kterého můžou tyto vztahy dlouhodobě fungovat. Jako řešení, o kterém se i uvažuje, se nabízí zavedení systému pojištění za vznik škody způsobené umělou inteligencí, které by uzavíraly relevantní osoby, zejména poskytovatelé produktů a služeb.

Dalším bílým místem je chybějící širší oprávnění k využití dat pro jejich vytěžování, a to zejména z toho důvodu, že v právních řádech jiných evropských zemí existují takové širší výjimky. Výjimka pro vytěžování dat by měla do českého autorského zákona přibýt v souvislosti s implementací evropské směrnice o autorském právu. Ta umožňuje jak vědecké, tak komerční vytěžování, což se vztáhne i na data pro trénink. Její transpozici do českého práva lze očekávat v průběhu roku 2021.

Bílým místem je i otázka autorství díla, které vytvořila umělá inteligence. Různé aplikace již samy „vytvořily“ řadu různých grafických nebo hudebních děl. V této otázce ale převládá názor, že autorem může být jen člověk a zdá se, že se tento princip nezmění ani v budoucnu.

6. Závěr
V tomto článku jsme nastínili základní oblasti legislativy, které se dotýkají umělé inteligence. Je ale nutno zdůraznit, že se v žádném případě nejedná o vyčerpávající přehled. Každý projekt, ve kterém je využívána umělá inteligence, je velice specifický, přičemž významnou roli hraje i různá sektorová regulace, například ve finančním sektoru. Současně se jedná o dynamickou oblast, ve které je nezbytné sledovat nejnovější vývoj regulace, a to zejména na evropské úrovni. I z tohoto stručného přehledu je ale zřejmé, že v případě projektů využívajících umělou inteligenci nelze v žádném případě podcenit právní aspekty jejího využití.

Odkaz na publikovaný článek naleznete zde:


Solidární civilní odpovědnost při organizované trestné činnosti Subsidiarita obecné prevenční povinnosti