Digitální svět má nová pravidla
Umělá inteligence (AI) se postupně stává nedílnou součástí nejen technologií, ale i našich každodenních životů. S každým dalším pokrokem však přibývají obavy a nutnost regulace. V létě 2024 se Evropská unie rozhodla udělat zásadní krok a vydala první ucelený právní rámec pro regulaci AI – známý jako „Akt o umělé inteligenci“ (AI Act). Toto nařízení má potenciál ovlivnit nejen evropské, ale i světové trhy. Nyní se jedná o otázku, jaké povinnosti z toho plynou pro jednotlivé subjekty, a to jak pro poskytovatele, tak pro uživatele AI systémů.
Akt o umělé inteligenci stanoví harmonizovaná pravidla pro používání a vývoj AI na základě hodnocení rizik. Klasifikuje AI systémy na zakázané, vysoce rizikové a systémy s omezeným rizikem, přičemž každá kategorie má specifické požadavky. Povinnosti podle Aktu se liší podle role, kterou subjekt v hodnotovém řetězci hraje – poskytovatelé, deployeři (zavádějící subjekty), distributoři nebo dovozci. Pro zavedení pravidel byly stanoveny různé termíny, kdy budou jednotlivá opatření vstupovat v platnost. Jaké kroky mohou subjekty podniknout, aby byly v souladu s nařízením?
Nařízení zavádí přístup založený na hodnocení rizik, což je klíčový princip, kterým se EU snaží chránit jak občany, tak i ekonomiku. AI systémy jsou podle Aktu o umělé inteligenci kategorizovány do několika skupin: zakázané systémy, vysoce rizikové systémy, systémy s omezeným rizikem a systémy bez nebo s minimálním rizikem.
Zakázané systémy zahrnují AI aplikace, které podle nařízení představují riziko pro lidská práva nebo jsou považovány za neetické, například sociální skórování na základě AI. Vysoce rizikové systémy zahrnují systémy, které mají významný vliv na bezpečnost nebo práva občanů, například v oblasti zdravotnictví nebo dopravy. Firmy, které takové systémy vyvíjejí nebo zavádějí, budou muset zajistit soulad s přísnými požadavky na transparentnost a bezpečnost. Systémy s omezeným rizikem zahrnují systémy, které nejsou tak nebezpečné, ale u kterých se požaduje základní transparentnost – například chatboti, kteří musí uživatele informovat, že mluví s AI, nikoli s člověkem. Systémy bez nebo s minimálním rizikem zahrnují běžně používané systémy, které nezahrnují žádná povinná pravidla a nejsou ani nebezpečné, například AI software pro úpravu fotografií nebo osobní asistenti.
Nařízení rozlišuje mezi několika rolemi v AI hodnotovém řetězci, z nichž každá má svou vlastní odpovědnost. Poskytovatelé AI systémů, kteří AI systémy vyvíjejí nebo je uvádějí na trh, mají nejvíce povinností, zejména pokud jde o posouzení shody a dodržování pravidel transparentnosti. Jejich povinnosti zahrnují pravidelné zaznamenávání událostí, jasnou identifikaci systému a vedení technické dokumentace. Deployeři (zavádějící subjekty), tedy společnosti nebo instituce, které AI systémy používají k profesním nebo komerčním účelům, mají povinnost používat AI systémy podle technických pokynů a zajišťovat lidský dohled. Dovozci a distributoři, kteří přinášejí AI systémy ze zemí mimo EU, jsou zodpovědní za kontrolu, zda tyto systémy splňují požadavky EU.
Jak se připravit na Akt o umělé inteligenci už dnesProaktivní příprava na Akt o umělé inteligenci může subjektům ušetřit mnoho problémů a případné sankce. Zde je několik kroků, které se vyplatí podniknout:
Prvním krokem je důkladná inventura AI systémů, které vaše firma vyvíjí nebo používá. Identifikujte, zda některé z těchto systémů spadají do vysoce rizikové kategorie a podle toho přizpůsobte jejich používání. Zejména poskytovatelé vysoce rizikových systémů by měli začít s přípravou posouzení shody. To zahrnuje i technickou dokumentaci, kterou si mohou regulační orgány kdykoli vyžádat. AI systémy, které jsou využívány pro rozhodování v oblasti citlivých údajů (např. zdravotnictví nebo finance), budou vyžadovat pravidelný dohled a přísnější bezpečnostní opatření. Sledování chování AI systémů v reálném čase a uchovávání záznamů o klíčových událostech může pomoci včas odhalit chyby nebo zneužití. To je zvlášť důležité pro systémy v kritických sektorech.
Zavedení Aktu o umělé inteligenci bude probíhat v několika fázích, přičemž klíčová data zahrnují: 2. února 2025, kdy nabydou účinnosti zákazy vybraných AI systémů, včetně rozpoznávání emocí na pracovišti. 2. srpna 2025 musí vysoce rizikové modely GPAI splňovat nová pravidla a sankce za jejich nedodržení budou vymáhány. 2. srpna 2026 vzniknou první národní regulační sandboxy, které umožní testování AI systémů v kontrolovaném prostředí. 2. srpna 2027 nabudou účinnosti další části Aktu o umělé inteligenci, což se týká zejména povinnosti posouzení shody u vysoce rizikových systémů.
V případě nedodržení nařízení hrozí vysoké pokuty, a to až do výše 15 milionů eur nebo 3 % celosvětového ročního obratu. Evropská unie bere regulaci AI vážně a stanoví přísné sankce, které mají odradit od rizikového chování. Nedodržení povinností může znamenat i reputační riziko, zejména pro společnosti, které pracují s osobními údaji nebo se nacházejí v citlivých oblastech, jako je zdravotnictví či bankovnictví. Veřejné mínění dnes velmi dbá na transparentnost a etické využívání technologií, takže firmy, které dodržují, budou vnímány jako důvěryhodnější partneři.
Akt o umělé inteligenci nabízí firmám nejen potřebu, ale i příležitost. Správně implementované regulace mohou firmám pomoci vyhnout se rizikům a přesvědčit zákazníky. Evropská unie ukazuje, že bezpečné a etické využití AI je možné a že moderní technologie musí sloužit nejen inovacím, ale i lidským právům a hodnotám.