Změny evropského Aktu o umělé inteligenci

Dne 14. června 2023 přijal Evropský parlament svůj vyjednávací postoj [1] k návrhu připravovaného nařízení [2] Evropského parlamentu a Rady EU, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (Akt o umělé inteligenci nebo také AI Act).

Dle původního návrhu regulace AI jsme pro Vás již připravili základní Směrnici o možnostech užívání umělé inteligence a současně Vás průběžně informujeme i na našich webových stránkách a sociálních sítích. V tomto článku se proto zaměřujeme výhradně na aktuálně Evropským parlamentem odsouhlasené změny AI regulace.

Definice AI

Ačkoli původní návrh nařízení oslavil teprve druhé výročí, pokrok a inovace na trhu umělé inteligence (AI) vedly zákonodárce i k přepracování základní definice systému AI, kterým se nyní nově rozumí:

„Strojový systém, který je navržen tak, aby pracoval s různou úrovní autonomie, a který může pro explicitní nebo implicitní zadání vytvářet výstupy, jako jsou předpovědi, doporučení nebo rozhodnutí, které ovlivňují fyzické nebo virtuální prostředí.“ [3]

Z nové definice lze sledovat  vliv nových a velmi rozšířených systémů typu ChatGPT či Midjourney, neboť nyní počítá s menším vstupem ze strany člověka při zadání požadavku na výstup. Současně je znát snaha zákonodárce o větší obecnost definice systému umělé inteligence a pokrytí co největšího množství potenciálních budoucích případů.

Přečtěte si, na co si dát pozor ve vztahu objednatel/dodavatel při užívání AI v našem dalším článku ↗.

Nové principy a upřesnění

Změny AI nařízení přináší i množství nových základních principů, či jejich upřesnění, společných pro všechny AI systémy. Tyto principy akcentují zejména lidskou kontrolu AI systémů, jejich zabezpečení proti zneužití třetími stranami, vysokou ochranu osobních údajů, transparentnost pro uživatele ohledně skutečnosti, že komunikují s AI a nikoli s člověkem. [4] Spolu s tím regulace AI apeluje na zvyšování gramotnosti v oblasti AI při implementaci a užívání systémů. [5]

Pro vývojáře AI systémů je podstatné, že u systémů neslučitelných s připravovaným nařízením, bude dle recitálu nařízení zakázán i jejich vývoz do třetích zemí poskytovateli se sídlem v EU. [6]

Rozšíření okruhu zakázaných AI

Dále se v nařízení významně rozšířil seznam, který obsahuje zakázané AI systémy, a to pro jejich vysokou míru nebezpečnosti. Jde zejména o:

  • používání biometrických kategorizačních systémů, které fyzické osoby rozřazují podle citlivých nebo chráněných atributů nebo charakteristik. [7] Původně měly být zakázány pouze systémy biometrické identifikace na dálku na veřejně přístupných místech „v reálném čase“ a „zpětně“, a to jen při splnění dalších podmínek.
  • zákaz tzv. social scoringu fyzických osob nebo jejich skupin, a to nejen ze strany orgánů veřejné správy, ale nově i obecně ze strany všech poskytovatelů AI systémů, [8]
  • provádění hodnocení rizik fyzických osob nebo jejich skupin za účelem posouzení rizika, že fyzická osoba spáchá trestný čin nebo přestupek. [9] Tyto systémy měly být původně považovány za sice vysoce rizikové, ale ne zakázané,
  • používání systémů AI, které vytvářejí nebo rozšiřují databáze rozpoznávání obličejů prostřednictvím necíleného získávání snímků obličejů z internetu nebo kamerových záznamů [10]
  • nebo používání systémů AI k odvozování emocí fyzické osoby v oblasti vymáhání práva, správy státních hranic, na pracovišti a ve vzdělávacích institucích. [11] Tyto systémy měly být původně považovány za sice vysoce rizikové, ale ne zakázané.

Nové kategorie modelů a s nimi spojené povinnosti

Změny v neposlední řadě definují tzv. základní model (foundation model), který je trénován na rozsáhlých datech a pro obecnost jeho výstupů je přizpůsobitelný široké škále různých úloh. [12]

Jako jeho podmnožina je pak nově definována i generativní AI (generative AI), a to jako základní model používaný v systémech AI, které jsou specificky určeny ke generování obsahu (s různou mírou autonomie).

Takto generovaným obsahem může být komplexní text, obrázky, zvuk nebo i video. [13] Pod generativní AI spadá kupř. i ChatGPT od OpenAI.

Na poskytovatele základního modelu (ať už samostatného nebo začleněného do jiného systému AI) klade nařízení množství požadavků. Ty navíc musí být splněny dříve, než je systém zpřístupněn na trhu nebo uveden do provozu. Jde zejména o povinnost:

  • prokázat prostřednictvím vhodného návrhu, testování a analýz, že poskytovatel identifikoval, snížil a zmírnil rozumně předvídatelná rizika pro zdraví, bezpečnost, základní práva, životní prostředí, demokracii a právní stát, a to za pomoci vhodných metod, například za účasti nezávislých odborníků. Ke zhodnocení dochází nejen před zahájením vývoje, ale i v jeho průběhu. Poskytovatel vede dále i dokumentaci zbývajících nezmenšitelných rizik po ukončení vývoje,
  • vypracovat rozsáhlou technickou dokumentaci a srozumitelné návody k použití nástroje, aby i poskytovatelé navazujících služeb mohli plnit své povinnosti podle nařízení. Takovou dokumentaci je poskytovatel povinen uchovávat ji po dobu 10 let pro případné kontroly,
  • dodržovat předpisy a normy energetické náročnosti, jakož i umožnit průběžné měření spotřeby energií, jiných zdrojů i dopadů na životní prostředí,
  • registrovat takový model v databázi EU,
  • zavést vnitřní systém řízení kvality k zajištění a zdokumentování souladu s těmito povinnostmi,
  • a mnohá další. [14]

Stejné povinnosti se vztahují i na generativní AI modely. Jejich poskytovatelům navíc přibývají zejména povinnosti:

  • dodržovat pravidla pro transparentnost systémů AI,
  • trénovat a případně navrhovat a rozvíjet základní model tak, aby byly zajištěny odpovídající záruky proti vytváření obsahu v rozporu s právem EU, model byl vyvíjen v souladu s obecně uznávaným stavem techniky a nebyla dotčena základní práva, včetně svobody projevu,
  • zdokumentovat a zveřejnit dostatečně podrobný přehled o datech použitých pro trénink systému, která jsou chráněna podle autorského práva. Tím však nejsou dotčeny právní předpisy EU nebo vnitrostátní právní předpisy či právní předpisy EU o autorském právu. [15]

Zejména poslední povinnost vyvolala velký ohlas. Dobře sestavená tréninková data jsou základem funkčního systému a poskytovatelé si své zdroje budou chtít chránit tak, aby nemohl být jejich trénink napodoben. Současně nebudou chtít přiznat případné porušení práv z duševního vlastnictví při tréninku svého modelu.

Povinnost transparentnosti

Změny v AI Act dále upřesňují a rozšiřují výše uvedené povinnosti transparentnosti způsobem, kdy:

  • poskytovatelé jsou povinni zajistit, aby systémy AI určené pro interakci s fyzickými osobami byly navrženy a vyvinuty tak, aby systém AI, poskytovatel nebo jiný uživatel včas, jasně a srozumitelně informoval fyzickou osobu vystavenou takovému systému, , že se systémem AI přichází do interakce, ledaže je to zřejmé z okolností a kontextu použití, [16]
  • informace je nezbytné fyzickým osobám poskytnout nejpozději v okamžiku první interakce s AI (nebo okamžiku, kdy mu byla fyzická osoba vystavena). Současně je nezbytné přizpůsobení takové informace zranitelným osobám (dětem, osobám s postižením apod.), [17]
  • tam kde je to vhodné a relevantní, pak takové informace musejí rovněž zahrnovat sdělení o tom, jaké funkce systému využívají AI, zda existuje lidský dohled a kdo je odpovědný za rozhodovací proces. Dále i, jaká existují práva a postupy pro vznesení námitek podle evropského či vnitrostátního práva, jakož i pro možnost domáhat se soudní ochrany proti rozhodnutím přijatým systémy AI nebo újmě jimi způsobené, včetně práva požadovat vysvětlení, [18]
  • jakož i o další podrobnosti pro různě zaměřené systémy AI.

Úřad pro umělou inteligenci

Nařízení dále nově namísto panelu pro umělou inteligenci zřizuje Úřad pro umělou inteligenci (AI Office) [19] se sídlem v Bruselu, jehož účelem bude zejména:

  • podporovat členské státy, vnitrostátní orgány dohledu, Komisi a další orgány EU při provádění nařízení, jakož i sledovat a zajišťovat jeho účinné a jednotné uplatňování,
  • vydávat stanoviska, doporučení nebo písemné příspěvky ve vztahu k nařízení,
  • pomáhat členským státům při zřizování a rozvoji tzv. regulačních sandboxů (kontrolovaných prostředí vytvořených orgánem veřejné správy, které umožňuje bezpečný vývoj, testování a ověřování inovativních systémů AI po omezenou dobu před jejich zpřístupněním na trhu nebo uvedením do provozu [20]) a usnadňovat spolupráci mezi nimi,
  • podporovat informovanost veřejnosti a její porozumění přínosům, rizikům, zárukám a právům a povinnostem v souvislosti s používáním systémů AI, nebo
  • monitoring vytvářených nově definovaných základních modelů,
  • jakož i mnohých dalších. [21]

Nařízení dále rozšiřuje pravomoci vnitrostátních orgánů dozoru o možnost:

  • provádět neohlášené kontroly vysoce rizikových systémů AI na místě nebo na dálku, jakož i
  • získávat vzorky týkající se vysoce rizikových systémů AI, a to i prostřednictvím inspekcí na dálku, za účelem zpětné analýzy (reverse engineering) systémů AI a získávání důkazů pro zjištění nesouladu s nařízením. [22]

Výjimky pro open-source

Za zmínku dále stojí, že se nařízení nově nevztahuje na součásti některých systémů AI poskytovaných na základě svobodných licencí a licencí s otevřeným zdrojovým kódem. Toto vynětí však obsahuje velké množství výjimek, jako jsou: vysoce rizikové systémy AI, základní modely, deep fake systémy, systémy, které interagují s fyzickou osobou, zakázané systémy pro rozpoznávání emocí a biometrické kategorizace apod.). [23]

Pokud potřebujete s nastavením interních pravidel pro používání AI pomoct, neváhejte nás
kontaktovat ↗
.

Jaký bude další postup?

S ohledem na rychlost vývoje v této oblasti, bude velmi zajímavé sledovat, jak pružně dokáže zákonodárce reagovat na technologický pokrok. A to zejména tam, kde by docházelo k novým formám zneužívání AI, na které EU regulace AI nepamatuje.

Nyní vchází proces přijetí nařízení do fáze tzv. trialogu mezi zástupci Evropského parlamentu, Rady Evropské unie a Evropské komise. Jeho cílem je připravit návrh do stavu akceptovatelného pro schválení Evropským parlamentem i Radou Evropské unie. [24] I upravený návrh tak stále může dostát výrazných změn.

Další vývoj regulace AI pro Vás budeme průběžně sledovat tak, abyste k okamžiku vstupu nařízení v účinnosti, byli na nová pravidla a podmínky plně připraveni.

Autor: Lukáš Slavník

Největší zálibu jsem nalezl v softwarovém právu, kterému se nyní věnuji na plný úvazek. Tato oblast neustále prochází rychlým vývojem, na který mnohdy nestíhá reagovat ani zákonodárce se stanovením základních podmínek pro specifické smluvní typy. O to podstatnější je správné nastavení práv a povinností přímo v dohodách, smlouvách či obchodních podmínkách. Naopak zákonodárce v oblasti IT mnohdy přichází s rozsáhlými příkazy, zákazy či omezeními, s jejichž implementací vám rovněž rád pomohu.

undefined

 

Autor: Pavel Čech ↗

Nejraději pomáhám těm, kdo potřebují skloubit právo s technologiemi. Ve světě IT a software se totiž cítím jako ryba ve vodě. Už od mala mě přitahovaly nové technologie a promítání science fiction do našeho světa. Až při studiu na vysoké škole jsem si však uvědomil, kolik etických a právních překážek je nutné překonat před jejich uvedením do reality.

 

undefined

Zdroje:

[1] Změny přijaté Evropským parlamentem dne 14. června 2023 k návrhu nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (Akt o umělé inteligenci) a kterým se mění některé legislativní akty Unie (KOM(2021)0206 - C9-0146/2021 - 2021/0106(COD) (dale jen “Změny”). Dostupné online: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html [přístup 12.7.2023].

[2] Nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (Akt o umělé inteligenci) a kterým se mění některé legislativní akty Unie. Dostupné online: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206 [přístup 12.7.2023].

[3] Změny, Amendment 165.

[4] Ibid, Amendment 213.

[5] Ibid, Amendment 214.

[6] Ibid, Amendment 29.

[7] Ibid, Amendment 217.

[8] Ibid, Amendment 218.

[9] Ibid, Amendment 224.

[10] Ibid, Amendment 225.

[11] Ibid, Amendment 226.

[12] Ibid, Amendment 168.

[13] Ibid, Amendment 399.

[14] Ibid, Amendment 399.

[15] Ibid, Amendment 399.

[16] Ibid, Amendment 484.

[17] Ibid, Amendment 488.

[18] Ibid, Amendment 484.

[19] Ibid, Amendment 525 a násl.

[20] Ibid, Amendment 206.

[21] Ibid, Amendment 529.

[22] Ibid, Amendment 587.

[23] Ibid, Amendment 164.

[24] Trialog. Dostupné online: https://eur-lex.europa.eu/legal-content/CS/TXT/HTML/?uri=LEGISSUM:trialogue. [přístup 12.7.2023].

Kontaktujte nás