Když stát nasazuje AI: Superúřady nebo minové pole?

Pavel Čech 14.07.2025

Představte si, že vám chatbot sociální správy bez mrknutí oka odmítne příspěvek na péči, zatímco policejní algoritmus už má vaše dítě zaškatulkované v databázi rizikových osob, protože se pohybuje ve špatné partě.

Umělá inteligence (AI) se nevyhýbá ani veřejné správě, což s sebou přináší velké příležitosti, bohužel i rizika, která se snaží regulovat nařízení EU známé jako AI Act.

Když totiž stát pustí AI do ostrého provozu, balancuje mezi vizí super schopného a rychlého úřadu, který během minuty schválí sociální dávku a včas odhalí útok na vodovodní síť, ale zároveň hrozí, že stejný algoritmus seniorovi zamítne příspěvek, nebo kamera chybně označí spořádaného otce od rodiny za hledaného zločince.

AI Act tento rozpor řeší: Každá chytrá technologie ve veřejné správě musí mít bezpečnostní pás v podobě systému řízení rizik, lidského dohledu a transparentnosti.

Zajímá vás, jak AI Act ovlivňuje i další oblasti vašeho byznysu? Sledujte náš blog a seriál o AI. Přečtěte si poslední díl  AI ve zdravotnictví.

Jak tedy využít potenciál AI na maximum, ale zároveň ji mít pod kontrolou a v souladu se zákonem? 👇

Kdy AI ve veřejném sektoru nejvíc ovlivňuje lidské životy?

Veřejná správa napříč Evropou už dnes testuje nebo pilotně nasazuje systémy AI v oblastech, které přímo ovlivňují životy lidí, od přidělování sociálních dávek až po dohled nad bezpečností. Právě tam, kde rozhodnutí algoritmu může zasáhnout do práv, důstojnosti nebo svobod jednotlivce, označuje AI Act tyto systémy za vysoce rizikové (high-risk). Ty najdeme v Příloze III AI Actu:

Oblast Příklad Proč jde o high-risk
Vzdělávání AI pro hodnocení písemek nebo přijímacích testů na školu. Chyba může ovlivnit, jestli se student dostane na školu a jaké vysvědčení přinese.
Kritická infrastruktura Automatické ventily ve vodárnách se při anomálii uzavřou, aby zabránily havárii. Pokud model selže nebo ho někdo hackne, zůstane město bez vody.
Migrace a azyl Virtuální detektor lži vyhodnocuje mimiku žadatelů o azyl u hraniční kontroly. Zásah do práv zranitelných osob a riziko kulturního biasu.
Tísňová volání AI na lince 112 určuje, které hovory musí neprodleně řešit záchranka či hasiči. Špatná priorita zpozdí pomoc a může stát lidský život.
Rozhodování o dávkách Algoritmus vyhodnotí, zda senior splňuje podmínky pro příspěvek na domácí péči. Rozhodnutí přímo ovlivňuje obživu i důstojnost žadatele.
Vymáhání práva Policejní systémy biometrické identifikace ve veřejně přístupných prostorech (ať už pro hledání obětí nebo pachatelů trestných činů, nebo pro předvídání rizika spáchání trestného činu), pokud nejsou zakázané. Omezení soukromí a svobody.
Soudnictví Systém pomáhající soudci při zkoumání výkladu práva. Nesprávný výklad práva a vypuštění lidského prvku v soudním procesu.
Nevíte, co můžete a co nesmíte? Podíváme se na vaše AI systémy s vámi a řekneme, co je potřeba řešit. Bookněte si call s  Pavlem.

Jak přistupovat k vysoce rizikovým systémům AI? ⚠️ 

Čím víc algoritmy rozhodují o lidských životech, tím přísnější pravidla platí: 

  1. Systém řízení rizik: důležité zavést už v rané fázi projektu, vývojáři i provozovatelé musí přesně popsat, co systém dělá, jaká data využívá a jak jsou výsledky ověřovány.
  2. Požadavky na kvalitu dat: soubory trénovacích, validačních a testovacích dat musí splňovat stanovená kritéria.
  3. Precizní technická dokumentace a logy jako auditovatelné černé skříňky.
  4. Lidský dohled a možnost okamžitého zásahu člověkem: úředník či dispečer musí mít možnost AI kdykoliv stopnout.
  5. Robustnost, transparentnost a kyberbezpečnost systému: systémy musí být navrženy a vyvinuty tak, aby bylo jejich fungování dostatečně transparentní a odolné.
  6. Posouzení dopadů na základní lidská práva: musí být nasazeny ještě před ostrým startem. 
💡 Do 2. srpna 2026 musí být všechny vysoce rizikové AI systémy plně v souladu s novými požadavky.  Připravte se s námi včas.

🚫 Zakázané praktiky, kterým se 100% vyvarujte

AI Act kromě přísné regulace vysoce rizikových systémů rovnou některé typy technologií zakazuje. Jsou uvedeny v čl. 5 AI Act. Ve veřejné správě se to týká především těch systémů, které manipulují s chováním lidí, nebo využívají jejich zranitelnosti. Ve všech těchto případech je riziko zásahu do práv jednotlivce natolik závažné, že žádné technické nebo byrokratické zabezpečení nestačí.

Zakázaná praktika Příklad Proč je to Red Flag
Podprahové manipulační techniky Ministerstvo práce spustí online portál pro žádosti o sociální dávky. AI v rozhraní sleduje pohyby myši a rytmus psaní, aby odhadla, zda je uživatel senior s nižší digitální gramotností. Jakmile jej takto rozpozná, zesílí kontrast a velikost tlačítka „Zrušit žádost“ a současně zobrazí varovný banner: „Pokud pokračujete, může se vyřízení výrazně protáhnout.“ Ovlivňuje chování bez vědomí občana.
Sociální hodnocení AI vytvářející „Index dobrého občana“ rozhoduje o přidělení obecních bytů. Diskriminace a narušení rovnosti.

Prediktivní „risk-scoring“ kriminality

Policejní algoritmus sbírá školní prospěch, docházku, okruh přátel a trestní minulost rodiny. Dítě s častými absencemi a starším bratrancem po výkonu trestu vyjde jako „vysoké riziko“. Policie ho pak pravidelně kontroluje na cestě do školy a sociální odbor jej zařadí do preventivního programu, ačkoli nespáchalo jediný delikt. Profilování bez důkazů, zásah do dětských práv a presumpce neviny.

Biometrická identifikace v reálném čase na veřejnosti

Městská policie instaluje kamery na vánočních trzích, které v reálném čase skenují obličeje všech návštěvníků a porovnávají je s databází drobných kapsářů. Chce tím předcházet krádežím, ale systém přitom sleduje desetitisíce lidí, kteří nespáchali žádný trestný čin. Povolené jen v nezbytně nutné míře a jen pro některé účely.
Zajímá vás, jak AI Act reguluje oblast lidských zdrojů? Přečtěte si náš článek AI v  HR.

AI má ve veřejné správě své místo

Přes přísné limity a regulace AI Act nijak nebrání tomu, aby stát chytré technologie využíval. Naopak. Dobře navržené systémy mohou zásadně zvýšit efektivitu a dostupnost veřejných služeb. Klíčem je, aby šlo o nástroje podpůrné, nikoliv nahrazující.

Systémy využívající AI jde nasadit tam, kde to AI Act nezakazuje (viz naše tabulka se zakázanými praktikami ☝️). AI však může rozhodovat o přidělení dávky, vyhodnocovat lži, pátrat po zločincích, nebo hodnotit přijímačky na vysokou, jen jsou tyto vysoce rizikové systémy pod přísnější regulací.

Checklist: Jste připraveni na zavádění AI?

1) Víte přesně, jaké AI systémy používáte?

2) Víte, jaká data do těchto AI systémů vkládáte? 

3) Víte, jaká data byste do těchto AI systému vkládat neměli? 

4) Proškolili jste všechny uživatele AI nástroje v otázkách jeho bezpečnosti, spolehlivosti a povinnosti ověřovat správnost výstupu? 

5) Pokud dochází ke zpracování osobních údajů, prověřili jste soulad s GDPR? 

6) Máte stanovenou odpovědnou osobu za bezpečnost a testování systému? 

Pokud si některou otázkou nejste jistí, je nejvyšší čas na vypracování pravidel užívání AI, tzv. AI policy.

Závěr: AI jako test reputace státu

AI je v rukou státu testem důvěry. Pokud budou algoritmy fungovat jako chirurg – přesně a pod přísným dohledem, mohou veřejnému sektoru pomoct stát se nejbezpečnějším digitálním hřištěm v Evropě. Pokud stát nechá algoritmy bez kontroly a regulací, budou se občané pohybovat stále jen na minovém poli. 💣 

Nevíte, jak AI zařadit do fungování státní správy? Zavedeme u vás bezpečné používání AI, nastavíme řízení rizik, dokumentaci i lidský dohled tak, aby schvalování žádostí, řízení krizových situací i každodenní agenda probíhaly hladce i v souladu s právem. 🦾 

Potřebujete pomoct s AI ve veřejném sektoru?

Who will take care of you
Pavel Čech
PartnerLegal assistance to start-upsIntellectual Property LawSoftware law
More services in this area