AI Act je tady: co musí vaše firma vyřešit do srpna 2026
Evropský AI Act dopadá na každou firmu, která používá AI nebo chatbota. Vysvětlujeme termíny, pokuty až 35 mil. € a co konkrétně musíte stihnout do 2. srpna 2026.
Evropský AI Act je nejpřísnější regulace umělé inteligence na světě. A na rozdíl od GDPR vás nezasáhne za rok. První pokuty hrozí už od února 2025, hlavní vlna pravidel pro firmy spadne 2. srpna 2026. Čísla, termíny a hlavně to, co s tím konkrétně dělat.
Není to vzdálená budoucnost. Termíny už běží.
Pamatujete na GDPR? Dva roky se mu firmy smály, pak přišel 25. květen 2018 a panika. AI Act je v podstatě stejný scénář, jen rychlejší, přísnější a s vyšší stropní pokutou. Část pravidel už dva roky platí, hlavní vlna povinností pro běžné firmy spadne za pár měsíců.
Do hlavního deadline AI Actu zbývá
89
dní
11
hodin
13
minut
07
sekund
2. srpna 2026 — start povinností pro vysoce rizikové AI systémy a další obecné povinnosti
Ten datum si pamatujte. Není to první ani poslední milník AI Actu, ale je to ten, který se týká drtivé většiny firem, jež AI nějakým způsobem používají nebo nabízejí.
O čem AI Act vlastně je?
AI Act (Nařízení EU 2024/1689) je první komplexní zákon na světě, který reguluje umělou inteligenci. V platnost vstoupil 1. srpna 2024 a postupně náběhne v několika fázích.
Jeho logika je jednoduchá: AI systémy se rozdělí do čtyř kategorií podle rizika. Čím vyšší riziko, tím tvrdší pravidla. Bez kategorizace nepoznáte, co se vás týká, takže začneme tady.
Pyramida rizika podle AI Actu
Tier 1 — Zakázané
Nepřijatelné riziko
Sociální skórování, manipulativní AI, biometrická kategorizace, předvídání trestné činnosti. Plně zakázáno od února 2025.
Tier 2 — Vysoké riziko
Přísná regulace
AI v náboru, hodnocení zaměstnanců, úvěrech, zdravotnictví, kritické infrastruktuře, justici. Nutná dokumentace, audit, lidský dohled.
Tier 3 — Omezené riziko
Povinnost transparentnosti
Sem patří chatboti, AI agenti, generátory obrázků, deepfaky. Uživatel musí vědět, že komunikuje s AI nebo že obsah generovala AI.
Tier 4 — Minimální riziko
Bez speciálních povinností
Spam filtry, AI ve hrách, doporučovací systémy v e-shopu. Doporučují se dobrovolné kodexy chování, nic víc.
Většina B2B i B2C nasazení (chatboti, AI v marketingu, generátory textů, voiceboti) spadá do tieru 3. To zní benevolentně, ale i tady jsou jasné povinnosti, které firmy běžně porušují, aniž by o tom věděly.
Termíny, které musíte znát
AI Act se nezapnul jedním dnem. Naběhl ve fázích a každá fáze přidává nové povinnosti.
1. 8. 2024
Vstup v platnost
AI Act je oficiálně součástí evropského práva.
2. 2. 2025
Zákazy + AI literacy
Zakázané praktiky platí. Povinnost školit zaměstnance v AI.
2. 8. 2025
Pravidla pro GPAI
Povinnosti pro poskytovatele LLM (OpenAI, Anthropic, Mistral...).
2. 8. 2026
Hlavní vlna pravidel
Vysoce rizikové systémy + většina povinností pro firmy.
2. 8. 2027
Plná účinnost
Všechna ustanovení v plné síle, včetně produktů s embedded AI.
Pokud sledujete data, dva milníky vás měly zarazit. 2. 2. 2025 už proběhl a s ním přišla povinnost AI literacy, o které drtivá většina českých firem nemá ani tušení. K tomu se vrátíme.
Týká se to vůbec mojí firmy?
Nejčastější otázka, kterou dostáváme. A nejčastější odpověď zní: ano, s největší pravděpodobností ano. Klikněte si rychlou rozhodovačku.
Rozhodovací průvodce — 3 kliky
1) Používáte v jakékoli formě AI nebo AI nástroj (ChatGPT, chatbot, generátor textů, AI v CRM, voicebot...)?
2) Komunikuje vaše AI s lidmi (zákazníky, uchazeči, zaměstnanci) nebo generuje obsah?
3) Rozhoduje vaše AI o věcech jako nábor, hodnocení lidí, úvěr, zdravotní péče nebo přístup ke vzdělání?
Tier 4 — Minimální dopad
AI Act se vás přímo netýká. Pozor ale: jakmile začnete jakkoli AI nasazovat (i ChatGPT pro psaní e-mailů), spadnete minimálně do tieru 3. A povinnost AI literacy platí pro každou firmu, která AI alespoň používá.
Tier 4 — Minimální riziko
Vaše AI běží v pozadí (např. doporučovací engine, anti-spam). Bez speciálních povinností, ale AI literacy a interní governance řešte.
Tier 3 — Omezené riziko
Sem patří většina chatbotů, AI agentů a generátorů obsahu. Hlavní povinnost: transparentnost. Uživatel musí vědět, že komunikuje s AI nebo že obsah generovala AI. Plus AI literacy, dokumentace a interní pravidla použití.
Tier 2 — Vysoké riziko
Tady to je nejtvrdší. Risk management systém, technická dokumentace, logování, lidský dohled, kvalitní data, audit, registrace v EU databázi vysoce rizikových AI systémů. Pokud spadáte sem, řešte to teď, ne v červenci 2026.
Pokuty: stejný prostor jako u GDPR. A v některých případech vyšší.
Když firmy slyší AI Act, ptají se vždy na jednu věc. Kolik to bude stát, když to nedodržíme. Tady je odpověď, černé na bílém.
Nejvyšší sazba
Použití zakázané AI praktiky
až 35 000 000 €
nebo 7 % globálního obratu (vyšší z obou)
Střední sazba
Porušení povinností u vysoce rizikových systémů
až 15 000 000 €
nebo 3 % globálního obratu
Nižší sazba
Nepravdivé nebo zavádějící informace úřadům
až 7 500 000 €
nebo 1 % globálního obratu
Pro malé a střední podniky se uplatní nižší ze dvou částek (paušální × procentní). U korporátu naopak ta vyšší. To je důležitý rozdíl proti GDPR.
Mám chatbota nebo AI agenta. Co konkrétně musím vyřešit?
Tady je to praktické. Když máte na webu chatbota, voicebota, nebo AI agenta, který za vás komunikuje, pracuje nebo generuje obsah, dotkne se vás tier 3. Tady jsou čtyři klíčové oblasti.
Povinnost 1
Transparentnost
Uživatel musí jasně vědět, že komunikuje s AI, ne s člověkem.
▸ Klikni pro detail
Jak to splnit
Uveďte u chatbotu jasně „virtuální asistent" nebo „AI". Doplňte úvodní hlášku typu: „Ahoj, jsem AI asistent...". U voicebotů to musí zaznít hlasově hned na začátku hovoru.
◂ Zpět
Povinnost 2
Označení AI obsahu
Generovaný text, obrázky a hlas musí být strojově detekovatelný.
▸ Klikni pro detail
Jak to splnit
U deepfakeů povinné viditelné označení. U AI generovaných textů a obrázků watermarking nebo metadata. Většina seriózních generátorů to už dělá za vás (C2PA, SynthID).
◂ Zpět
Povinnost 3
AI literacy
Lidé, co s AI pracují, musí umět s ní zacházet. Platí od 2. 2. 2025.
▸ Klikni pro detail
Jak to splnit
Krátké interní školení (1-2 hodiny) o tom, jak AI funguje, kde halucinuje, jaká data do ní nedávat, jak ověřovat výstupy. Zaznamenejte si, kdo a kdy proškolen byl.
◂ Zpět
Povinnost 4
Dokumentace a governance
Musíte vědět, kde AI v firmě běží, kdo ji spravuje a kdo nese odpovědnost.
▸ Klikni pro detail
Jak to splnit
Veďte si AI registr (i prostá tabulka stačí): jaký nástroj, na co, jaká data, kdo vlastník. K tomu interní směrnice o použití AI a souhlas dodavatelů s dpovědnostmi (DPA + AI doložka).
◂ Zpět
Tahle čtyřka je minimum, které řeší každá firma, jež používá AI nebo chatbota. Bez ohledu na velikost.
AI literacy: tichá povinnost, kterou už porušujete.
Pozor — platí už od února 2025
Článek 4 AI Actu říká, že firmy musí zajistit dostatečnou AI gramotnost u svých zaměstnanců a spolupracovníků, kteří s AI systémy pracují. Drtivá většina českých firem o tom nikdy neslyšela. Není to o certifikátech, je to o základním pochopení AI a jejích limitů.
V praxi to znamená: 1-2 hodiny interního školení (ideálně doložené), interní směrnice „Jak používáme AI" a jasné rozlišení, co se smí a nesmí AI sdělovat. Pokud máte 5 lidí, vyřešíte to na poradě v pondělí.
Roadmapa compliance: 6 kroků, které dávají smysl
Místo paniky systematický postup. Tady je sekvence, která funguje pro firmy od 5 do 500 zaměstnanců.
1
Inventura
Sepište všechnu AI, kterou ve firmě používáte
Nejen oficiální nástroje. ChatGPT v prohlížeči, Copilot v Office, AI v CRM, plug-iny, marketingové generátory, voiceboti dodavatelů. Všechno do jedné tabulky.
2
Klasifikace
Zařaďte každý systém do kategorie rizika
Pyramidu jste už viděli. Pro každý nástroj zkuste odpovědět: zakázané / vysoké / omezené / minimální. U pochybných případů se ptejte experta nebo sledujte rozhodovací průvodce výše.
3
Transparentnost
Nasaďte AI disclosure všude, kde se AI dotýká uživatelů
U chatbotu úvodní hláška, u voicebotu intro. U generátorů obrázků a textů jasné označení. U deepfakeů přímo viditelně.
4
AI literacy
Proškolte tým a doložte to
Hodina, max dvě. Ukažte základy LLM, halucinace, citlivost dat, ověřování výstupů. Zápis ze školení do složky.
5
Smluvní vrstva
Podívejte se na smlouvy s AI dodavateli
Kdo je provider, kdo deployer? Kdo nese odpovědnost? DPA musí pokrývat AI. Mnoho stávajících smluv to neřeší vůbec.
6
Living dokument
Vytvořte AI policy a držte ji živou
Pravidla, jak firma s AI zachází. Co se smí, co ne, kdo schvaluje nové nástroje. Krátký dokument, max 2 strany. Reviewujte každého půl roku.
Žádný z těch kroků není raketová věda. Ale pokud je doteď nikdo nevyřešil, nestihnete je za poslední dva týdny v červenci.
Co AI Act není
Kolem AI Actu se nakupila spousta mýtů. Tři, které slyšíme nejčastěji.
„AI Act zakazuje AI." Nezakazuje. Zakazuje jen úzkou množinu praktik (sociální skórování, manipulativní podprahovou AI atd.), které u běžného byznysu stejně nemají co dělat.
„Týká se to jen vývojářů a velkých tech firem." Netýká. Pojem deployer v Actu pokrývá každého, kdo AI používá v profesionálním kontextu. To je každá firma, co dnes pouští GPT-5 v marketingu nebo má chatbota na webu.
„Bude to drahé jako GDPR." Nemusí. Tier 3 (chatboti, marketing AI) zvládnete vyřešit interně za desítky hodin, ne za stovky tisíc. Drahé je to jen pro tier 2 (vysoce rizikové systémy v HR, financích, zdravotnictví).
Časté otázky
Ano. AI Act platí pro každou firmu, která působí v EU, prodává sem, nebo jejíž AI systém má dopad na lidi v EU. Sídlo nehraje roli. Funguje to stejně jako u GDPR.
Oba. OpenAI je provider a má povinnosti vůči samotnému modelu. Vy jste deployer a odpovídáte za to, jak AI ve firmě používáte (kontext, transparentnost vůči uživatelům, AI literacy, governance).
Pokud z kontextu (název widgetu, ikona, úvodní text) není jasné, že jde o AI, jste mimo zákon. Doplňte úvodní zprávu, jasné označení v hlavičce widgetu nebo „AI asistent" v názvu. Trvá to deset minut a uchrání vás od zbytečných problémů.
Český národní úřad pro AI dozor je v procesu ustavení (zákonem provedeno přes Ministerstvo průmyslu a obchodu). Vedle toho má pravomoci ÚOOÚ (data) a ČTÚ (telekomunikace). Na unijní úrovni dohlíží AI Office při Evropské komisi, hlavně na velké modely (GPAI).
Můžete, ale spadáte do vysokého rizika. Tedy: dokumentace, lidský dohled nad rozhodnutím, ne automatické zamítání kandidátů, transparentnost vůči uchazečům, kvalitní data, audit. Hodně firem AI v náboru raději ztiší jen na pomocné úlohy (parsing CV) a finální výběr nechá člověku.
Pokud máte chatbota a běžné AI nástroje (tier 3), realisticky desítky hodin práce v rámci roku. Inventura, školení, doplnění transparentnosti, AI policy. Externí konzultace v řádu jednotek až nižších desítek tisíc Kč. U vysoce rizikových systémů (tier 2) jde o stovky tisíc plus dlouhodobý audit.
Můžeme vám s tím pomoct
Chatbot.Expert × AI Act
Postavíme vašeho AI chatbota nebo AI agenta tak, aby splňoval AI Act od první minuty.
Děláme implementace, kde je transparentnost, AI literacy podklad pro tým, governance dokumentace a smluvní DPA součástí dodávky. Žádný překvapivý „aha, tohle taky?" v červenci.
AI Act není apokalypsa. Pro většinu firem znamená pár procesních úprav, hodinu školení a doplnění jedné věty do disclaimeru chatbotu. Pro firmy s vysoce rizikovými AI systémy je to vážnější výzva, kterou zvládnete s pomocí.
Co je ale jisté: úřady vám 2. srpna 2026 nedají bonus za to, že jste o AI Actu „nevěděli". Stejně jako u GDPR. Půl roku prostor je víc než dost, abyste to měli zvládnuté.
Pokud vás AI Act zaskočil, nebo nevíte, do jakého tieru spadáte, ozvěte se. Probereme to za 30 minut a budete mít jasno, co dál.
Petr je spoluzakladatel Chatbot.Expert, kde se věnuje vývoji AI chatbotů a AI agentů pro firmy, které chtějí automatizovat komunikaci a zákaznickou podporu.