Etický kodex AI
Tento Etický kodex stanovuje zásady a pravidla pro zodpovědné využívání systémů umělé inteligence (AI) zaměstnanci organizace. Cílem je zajistit, aby AI byla používána transparentně, bezpečně, spravedlivě a v souladu s hodnotami organizace, právními předpisy a očekáváním společnosti.
Právní rámec
Základní principy
Respekt k člověku
Význam: Každá interakce s AI musí respektovat lidskou důstojnost, základní práva a svobody.
Praktický příklad: Pokud AI vytváří doporučení pro občana nebo zaměstnance, musí být výstupy jasné a srozumitelné, bez ponižujícího či diskriminačního obsahu.
Doporučení: Před nasazením AI vždy posoudit etické dopady a zajistit lidský dohled.
Transparentnost
Význam: Uživatel má právo vědět, kdy komunikuje s AI a odkud pochází výstupy.
Praktický příklad: Chatbot na webu úřadu musí jasně sdělit, že jde o automatizovaný systém, a mít možnost přepojení na člověka.
Doporučení: Označovat AI obsah; uchovávat auditní logy; zajistit vysvětlitelnost modelů u dopadových rozhodnutí.
Odpovědnost
Význam: Za rozhodnutí učiněná na základě AI vždy odpovídá člověk. AI je podpůrný nástroj.
Praktický příklad: AI vygeneruje návrh smlouvy – konečnou odpovědnost nese zaměstnanec/vedoucí.
Doporučení: Zavést Human-in-the-loop (HITL), určit vlastníka systému (AI owner), dokumentovat lidský přezkum.
Spravedlnost a nediskriminace
Význam: AI nesmí znevýhodňovat jednotlivce/skupiny podle chráněných charakteristik.
Praktický příklad: Předvýběr uchazečů nesmí diskriminovat podle jména či pohlaví.
Doporučení: Provádět testy biasu; udržovat rozmanité datasety; zavést možnost přezkumu pro dotčené.
Bezpečnost a ochrana dat
Význam: AI systémy musí být chráněny proti útokům a zneužití zpracování dat v souladu s GDPR a ZoKB/NIS2.
Praktický příklad: Vložení interních dokumentů do veřejného AI chatu může vést k úniku informací.
Doporučení: Používat schválené bezpečné AI nástroje; neukládat citlivá data do externích modelů bez právního titulu; dělat audity a školení.
Pravidla chování
Zaměstnanec je povinen:
  • Používat AI pouze k pracovním účelům a v souladu s právními a etickými normami.
  • Ověřovat a kriticky posuzovat výstupy AI před jejich použitím.
  • Chránit důvěrné a osobní údaje; do nástrojů AI nezadávat citlivá data bez právního základu.
  • Upozornit na možné riziko či nevhodné chování AI.
  • Průběžně se vzdělávat v oblasti etiky a bezpečného využívání AI.
Je zakázáno:
  • Využívat AI k manipulaci, šíření dezinformací či porušování práv třetích stran.
  • Zadávat do AI systémů osobní nebo citlivá data, pokud to není výslovně povoleno a zajištěno.
  • Obcházet bezpečnostní pravidla a omezení nastavená organizací.
  • Používat AI k reverznímu inženýrství nebo pokusům o získání přístupu k duševnímu vlastnictví organizace, včetně zdrojových kódů a interního know-how.
Implementace, Dohled a Hlášení
Odpovědnost vedení
Za implementaci a dodržování Etického kodexu AI odpovídá vedení organizace.
Porušení pravidel
Porušení pravidel může být posuzováno jako porušení pracovních povinností.
Školení a podpora
Organizace zajistí pravidelná školení a poskytne zaměstnancům podporu při etickém a právně vyhovujícím využívání AI.

Mechanismus hlášení

Zaměstnanec je povinen bezodkladně hlásit podezření na porušení tohoto Kodexu, zjištěné bezpečnostní incidenty (včetně úniku dat z AI nástrojů) nebo systémové zkreslení (bias), které vede k nespravedlivému rozhodování, svému nadřízenému, nebo prostřednictvím interního oznamovacího kanálu.
Závěrečná ustanovení
Tento Etický kodex AI vstupuje v platnost dnem jeho schválení vedením organizace. Je závazný pro všechny zaměstnance a jeho smyslem je podporovat důvěru, odpovědnost a férové využívání umělé inteligence v každodenní praxi.
Vztahuje se i na externí smluvní partnery a dodavatele, kteří mají přístup k datům organizace a při práci využívají AI.
Příloha 1:
Rizika a opatření při používání generativní AI
Příloha 2:
Slovníček pojmů
Pro zajištění srozumitelnosti používáme v Kodexu následující definice:
Autorská práva
Práva, která chrání autory literárních, vědeckých a uměleckých děl.
Bias (Zkreslení)
Systematická chyba v datech nebo algoritmu AI, která vede k nespravedlivým nebo diskriminačním výsledkům vůči určitým skupinám nebo jedincům.
Citlivá data
Termín používaný v Kodexu jako zkratka pro zvláštní kategorie osobních údajů dle GDPR (např. údaje odhalující rasový nebo etnický původ, politické názory, náboženské nebo filozofické přesvědčení, členství v odborech, genetické údaje, biometrické údaje, údaje o zdraví nebo o sexuálním životě či orientaci).
Compliance
Soulad s právními předpisy, interními pravidly a etickými standardy organizace.
DPIA
Data Protection Impact Assessment - posouzení vlivu na ochranu osobních údajů. Proces vyžadovaný GDPR v případech, kdy plánované zpracování osobních údajů může představovat vysoké riziko pro práva a svobody fyzických osob.
Halucinace (AI)
Generování přesvědčivě znějících, ale nepravdivých, smyšlených nebo neověřených informací AI modelem.
Human-in-the-loop (HITL)
Přístup, kdy je lidský dohled a ověření součástí rozhodovacího procesu podpořeného AI, aby byla zajištěna konečná lidská odpovědnost.
Osobní údaje
Jakákoliv informace, která se vztahuje k identifikované nebo identifikovatelné fyzické osobě (např. jméno, adresa, e-mail, IP adresa).
Prompt Injection
Kybernetický útok, kdy útočník manipuluje AI model zadáním speciálně vytvořených instrukcí (promptů), aby přepsal původní instrukce a provedl neoprávněnou akci, např. odhalení interních dat.
Reverzní inženýrství
Proces, při kterém se demontuje nebo zkoumá výrobek, systém, či program, aby se zjistilo, jak funguje, s cílem vytvořit kopii nebo vylepšenou verzi. Je zakázáno jej provádět na interních systémech AI organizace.
ZoKB/NIS2
Zkratka pro Zákon o kybernetické bezpečnosti (ZoKB) a Směrnici NIS2, které upravují kybernetickou bezpečnost kritických subjektů.
Příloha 3:
Praktický manuál k Etickému kodexu AI
(modelové příklady pro zaměstnance a partnery)
Tento manuál doplňuje Kodex o praktické situace a ukazuje, jak jej uplatňovat v každodenní práci. Smyslem je podpořit důvěru, férovost, bezpečnost a udržitelné využívání AI v organizaci.
1
Ověřování výstupů AI
Situace: AI vygeneruje text nebo analýzu pro prezentaci vedení.
Co dělat:
  • Zkontrolovat fakta v důvěryhodných zdrojích (fact-checking).
  • Ověřit, zda výstup neobsahuje chyby nebo smyšlené údaje („halucinace").
  • Přidat vlastní lidský úsudek a odpovědnost.
2
Zadávání citlivých údajů
Situace: Kolega chce vložit do AI modelu seznam klientů s kontaktními údaji, aby mu připravil marketingový e-mail.
Co dělat:
  • Upozornit, že do externích AI nástrojů není dovoleno vkládat osobní či citlivá data.
  • Využít pouze schválené interní systémy s právním titulem zpracování.
  • Pokud si nejste jistí, obrátit se na DPO (pověřence pro ochranu osobních údajů).
3
Rozpoznání diskriminace a biasu
Situace: AI nástroj doporučuje uchazeče o zaměstnání, ale výrazně preferuje kandidáty určitého pohlaví nebo věku.
Co dělat:
  • Zaznamenat problém a upozornit na možný bias.
  • Nahlásit Etické komisi či nadřízenému.
  • Požádat o přezkoumání dat a algoritmu.
4
Udržitelné využívání AI
Situace: Tým plánuje použít rozsáhlý jazykový model pro jednoduchou úlohu (např. korektura textu).
Co dělat:
  • Položit si otázku: Je to přiměřené, nebo postačí jednodušší, energeticky méně náročný nástroj?
  • Pokud je to možné, využít efektivnější řešení (menší model, sdílená platforma).
  • Pamatovat na environmentální stopu AI.
5
Reakce na incident nebo podezření
Situace: AI systém se začne chovat neočekávaně (např. generuje urážlivý obsah, nebo dojde k úniku dat).
Co dělat:
  • Okamžitě zastavit používání daného systému.
  • Nahlásit incident internímu bezpečnostnímu kanálu.
  • Neřešit věc sám, ale poskytnout všechny dostupné informace.
6
Ochrana oznamovatele
Situace: Zaměstnanec nahlásí, že AI nástroj byl zneužit k manipulaci s daty. Má obavu, že mu to poškodí vztahy v týmu.
Co dělat:
  • Organizace garantuje ochranu oznamovatele – není možné jej za nahlášení sankcionovat.
  • Využít anonymní oznamovací kanál, pokud je k dispozici.
  • V případě pochybností se obrátit přímo na Etickou komisi.
7
Externí partneři
Situace: Dodavatel využívá při práci s daty organizace vlastní AI nástroj, o kterém zaměstnanci nic nevědí.
Co dělat:
  • Požadovat, aby dodavatel dodržoval kodex (smluvně vázáno).
  • Ověřit, zda nástroj splňuje požadavky na ochranu dat a bezpečnost.
  • Pokud ne, práce s daty musí být zastavena do vyjasnění.
8
AI a duševní pohoda
Situace: Manažer zvažuje využít AI nástroj k detailnímu sledování produktivity zaměstnanců.
Co dělat:
  • Připomenout, že je zakázáno využívat AI k neetickému monitoringu kolegů.
  • Doporučit nástroje, které sledují pracovní procesy férově a transparentně.
  • Dbát na to, aby AI podporovala, nikoli ohrožovala pracovní prostředí.
9
Příklad správného postupu
Situace: Zaměstnanec potřebuje připravit shrnutí odborného článku.
Správný postup:
  • Vložit pouze neosobní text do schváleného AI nástroje.
  • Ověřit výstup a případně jej upravit.
  • Uvést zdroj původního článku.
  • Pokud AI ušetří čas, přínos je oprávněný a odpovědnost zůstává na zaměstnanci.