Úprava zpracování osobních údajů v aktu o umělé inteligenci

Umělá inteligence potřebuje ke svému fungování data. Mnoho dat má ale charakter osobních údajů. Pojďme se podívat na to, jak se zpracování osobních údajů pro trénování systémů umělé inteligence, a to navíc systémů s vysokým rizikem, věnuje konečné znění aktu o umělé inteligenci (AIA), na jehož podobě se na začátku roku shodli zástupci členských států Evropské unie.

Jedním z cílů AIA je podpořit důvěryhodnou umělou inteligenci a zajistit dodržování základních práv

Mezi základní práva patří i právo na ochranu soukromí a právo na ochranu osobních údajů. Není překvapením, že AIA deklaruje, že se na zpracování osobních údajů v procesech podle AIA vztahuje GDPR, které není tímto nařízením dotčeno (čl. 2 odst. 7 AIA). Ochrana osobních údajů a ochrana soukromí je jedním z důvodů, proč patří některé systémy umělé inteligence mezi zakázané (čl. 5 AIA). Jsou jimi např. systémy biometrické kategorizace, které na základě biometrických údajů mohou dovodit rasu, politické názory, sexuální orientaci apod. Zákaz se týká, byť s určitými výjimkami, i vzdálené biometrické identifikace v reálnem čase pro účely vymáhání práva.

Jádro předpisu tvoří regulace systémů s vysokým stupněm rizika

Kromě rizik v oblastech bezpečnosti a zdraví je takovým rizikem možný zásah do základních práv. Systémy s vysokým rizikem jsou kupříkladu ty, které jsou postaveny na zpracování biometrických údajů, pokud jsou povoleny zákonem, systémy pro hodnocení fyzických osob používané pro posouzení úvěruschopnosti nebo nároku na dávku nebo některé systémy využívané orgány pro vymáhání práva. Třebaže by za podmínek stanovených v AIA nemusely být posuzovány v některých případech jako vysoce rizikové, výjimky se neuplatní, pokud tyto systémy provádí profilování fyzických osob.

Trénování vysoce rizikových systémů z hlediska zpracování osobních údajů

Poskytovatelé vysoce rizikových systémů mají podle AIA celou řadu povinností. Jednou z nich jsou požadavky na data použitá pro trénování, testování a validaci (čl. 10 AIA). Validací se rozumí hodnocení trénovaného systému umělé inteligence a ladění jeho nenaučitelných parametrů. AIA hovoří o datech, a to i česká verze. Data nejsou v AIA definovaná. Definici nalezneme v aktu o datech.[1] Podle tohoto nařízení se daty rozumí veškeré digitální záznamy jednání, skutečností nebo informací, a všechny soubory takových jednání, skutečností nebo informací, včetně záznamů v podobě zvukové, vizuální nebo audiovizuální nahrávky. Data tedy v sobě zahrnují osobní i neosobní údaje. Pokud datasety obsahují osobní i neosobní údaje, musí se s nimi nakládat podle GDPR (čl. 2 odst. 2 nařízení o volném toku neosobních údajů[2]).

V AIA se nikde neuvádí, za jakým účelem jsou osobní údaje pro trénování zpracovávány

Data pro trénování, testování a validaci musí být vhodná pro zamýšlený účel systému a datový management musí zahrnovat mimo jiné posouzení procesů získání dat. Pokud jde o osobní údaje, původní účel zpracování, slovy odůvodnění (bod 67 odvodnění AIA), datový management musí být transparentní ohledně původu osobních údajů. AIA tedy připouští, že osobní údaje byly původně zpracovávány pro jiný účel, než je trénování systémů umělé inteligence. AIA ovšem nikde nehovoří o tom, za jakým účelem jsou osobní údaje pro trénování zpracovávány (v úvahu přichází oprávněný zájem podle čl. 6 odst. 1 písm. f GDPR) a zda je nezbytný test slučitelnosti. Domnívám se, že ano, nicméně při jeho negativním výsledku nesmí poskytovatel systému umělé inteligence tyto osobní údaje využívat pro trénink systému. Trénování, a zvláště pak testování a validace systémů umělé inteligence, se provádí z důvodu co nejmenší chybovosti systémů a co největšího přiblížení požadovaného výstupu. Čím více dat, tedy i osobních údajů poskytovatel zpracovává, tím jsou výstupy přednější. Tato skutečnost může být v rozporu s principem minimalizace. Otázkou je, zda zpracování velkého množství osobních údajů nemůže být odůvodněno vývojem systému umělé inteligence s požadovanými výstupy.

A co zásada transparentnosti?

Při zpracování osobních údajů pro trénování umělé inteligence bude problematické dodržet i zásadu transparentnosti. Poskytovatel systému umělé inteligence se bude pravděpodobně odvolávat na nemožnost poskytnout subjektům údajů informace o zpracování podle čl. 14 odst. 5 písm. b) ve spojení s čl. 11 odst. 1 GDPR (neexistence povinnosti získávat dodatečné informace o subjektu údajů pouze pro dosažení souladu s GDPR).

AIA umožňuje zpracování zvláštních kategorií údajů

Přestože se AIA specificky nezabývá zpracováním běžných osobních údajů, pokud je to nezbytně nutné, umožňuje zpracování zvláštních kategorií údajů. Tyto údaje je možné zpracovávat pro detekci a opravu předpojatostí (bias) za předpokladu, že detekci a opravu není možné řešit jinými údaji, bude zajištěna dostatečná bezpečnost a ochrana soukromí, data nebudou předána třetí osobě, budou vymazána po dosažení účelu nebo doby uchování a záznamy o zpracování zahrnutí odůvodnění zpracování těchto údajů pro daný účel. Přestože AIA neobsahuje ani u zvláštních kategorií údajů právní základ zpracování, nabízí v odůvodnění 70 AIA výjimku ze zákazu podle čl. 9 odst. 1 GDPR. Má jí být významný veřejný zájem podle čl. 9 odst. 2 písm. f) GDPR. Stejná pravidla jako pro zvláštní kategorii údajů platí i pro osobní údaje podle čl. 10 GDPR.

Podle čl. 13 AIA mají poskytovatelé vysoce rizikových systémů poskytnout informace provozovatelům systémů. Informace se mají týkat mimo jiné údajů o datasetech použitých při trénování systémů. Provozovatel systému by měl mít informace zejména o tom, zda datasety obsahovaly osobní údaje a jaký byl původní účel jejich zpracování.

V prohlášení o shodě musí poskytovatel vysoce rizikového systému umělé inteligence, který zahrnuje zpracování osobních údajů, prohlásit, že splňuje požadavky GDPR a dalších unijních předpisů o ochraně osobních údajů.

Povinnosti provozovatelů umělé inteligence ve vztahu k osobním údajům

Provozovatelé vysoce rizikových systémů umělé inteligence, u nichž hrozí riziko zásahu do základních práv, budou muset vypracovat tzv. posouzení vlivu na ochranu základních práv (Fundamental Rights Impact Assessment, FRIA). Jak již bylo zmíněno, mezi základní práva patří i právo na soukromí a ochranu osobních údajů. Čl. 27 AIA uvádí body, které musí FRIA obsahovat. Mezi nimi je i popis kategorií fyzických osob, které mohou být systémem dotčeny, specifická rizika využívání systému pro tyto osoby a opatření, která by provozovatel přijal v případě, že by k zásahu do základních práv došlo. AIA uvádí, že FRIA může být proveden společně s posouzením vlivu na ochranu osobních údajů podle čl. 35 GDPR.

Shrnutí posouzení vlivu na ochranu osobních údajů bude muset provozovatel systému vysoce rizikového systému umělé inteligence uvedený v Příloze III AIA, kde jsou uvedeny systémy představující riziko pro základní práva, předložit při registraci systému do rejstříku vysoce rizikových systémů umělé inteligence. Z toho vyplývá, že provozovatel vysoce rizikového systému umělé inteligence musí vždy provést posouzení vlivu na ochranu osobních údajů.

Provozovatelé systémů umělé inteligence budou správci osobních údajů se všemi povinnostmi podle GDPR.

Regulační sandboxy

Speciální režim zpracování osobních údajů platí v případě tzv. regulačních pískovišť (také regulační sandboxy). Smyslem sandboxů je podpora inovací, které podle zákonodárce nemusí být vždy možné při dodržování standardní regulace. Nezbytné je jejich povolení a umožnění dohledu. Ke zpracování osobních údajů dochází ve veřejném zájmu. Osobní údaje musí být použity pouze k trénování, testování a validaci a musí být pro původní účel získány v souladu se zákonem. Zpracování osobních údajů je vázáno celou řadou podmínek. Osobní údaje musí být kupříkladu zpracovávány v chráněném prostředí, nesmí být předávány mimo sandbox, zpracování nesmí negativně ovlivnit subjekty údajů nebo existuje povinnost uchovávat logy. K testování v reálném prostředí mimo sandbox musí docházet se souhlasem subjektů testování.

Závěr

Přestože se v AIA uvádí, že tento dokument nemá vliv na GDPR, budou se muset i poskytovatelé a provozovatelé systémů umělé inteligence, zvláště těch vysoce rizikových, řídit požadavky také tohoto nařízení. Problémy prolínání těchto předpisů a snad i řešení ukáže až praxe.

Eva Fialová

Autorka je právnička se specializací na ochranu osobních údajů a právo ICT. Působí v advokátní kanceláři PRK Partners.


[1] Nařízení Evropského parlamentu a Rady (EU) 2023/2854 ze dne 13. prosince 2023 o harmonizovaných pravidlech pro spravedlivý přístup k datům a jejich využívání a o změně nařízení (EU) 2017/2394 a směrnice (EU) 2020/1828 (nařízení o datech)

[2] Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES

Přihlášení k odběru aktualit