Zákon EU o umělé inteligenci

Co by měly organizace znát

Mnoho společností má k implementaci AI do každodenních procesů ambivalentní postoj. Na jedné straně totiž aplikace AI nabízí obrovskou přidanou hodnotu téměř ve všech odvětvích a oblastech podnikání, na druhé straně je také spojena s velkými riziky v oblastech ochrany dat, bezpečnosti informací a právní bezpečnosti. Zejména zavedení zákona EU o umělé inteligenci ukládá přísná pravidla, jejichž ignorování může mít pro organizace dramatické důsledky. Otázka tedy zní – jak najít správnou rovnováhu mezi implementací a omezeními, pokud jde o umělou inteligenci?

 

Zákon EU o umělé inteligenci - nová pravidla hry

Přijetím zákona o umělé inteligenci na jaře 2024 představila EU jasná pravidla, která musí organizace dodržovat. Aplikace AI jsou rozděleny do čtyř úrovní rizika:

  • Zakázané aplikace AI: Systémy AI, jako je sociální bodování, manipulativní technologie nebo biometrický dohled v reálném čase na veřejných prostranstvích, jsou zakázány, protože mohou porušovat základní práva.
  • Vysoce rizikové aplikace AI: Patří sem systémy, které se používají v kritické infrastruktuře, zdravotnictví, justici, vzdělávání nebo náboru. Platí pro ně přísné podmínky.
  • Omezeně rizikové aplikace AI: Příklady jako chatboti nebo generativní umělá inteligence (např. generátory textu nebo obrázků) vyžadují transparentnost vůči uživatelům, ale jsou považovány za mírně rizikové.
  • AI aplikace s minimálním rizikem: Aplikace, jako jsou spamové filtry nebo AI ve videohrách, nepředstavují téměř žádná rizika a nevztahují se na ně žádné zvláštní požadavky.

Co pro společnosti představuje klasifikace rizik

Zvláště přísné právní požadavky se vztahují na vysoce rizikové aplikace AI. Společnosti jsou v těchto případech povinny zavádět komplexní opatření – například fungující řízení rizik, kompletní dokumentaci systémů AI, jasná pravidla pro lidský dohled a vysoké požadavky na bezpečnost a kvalitu dat. Tyto požadavky se týkají nejen technických, ale i organizačních a právních oblastí a často vyžadují spolupráci napříč jednotlivými odděleními. I v případě aplikací AI s omezeným rizikem – jako jsou chatboti nebo generativní AI – musí společnosti zajistit transparentnost vůči uživatelům, například jasným označením použití AI. Společnostem proto doporučujeme, aby si v zájmu splnění nových regulačních požadavků včas zavedly příslušné procesy a kompetence.

Zavedení systémů řízení - minimalizace rizik

Pro nalezení správné rovnováhy mezi konkurenčním tlakem na integraci AI do stávajících systémů a souvisejícím právním rizikem je vhodná certifikace podle ISO 42001 – první normy pro umělou inteligenci. Zavedením systému řízení umělé inteligence se naučíte, jak umělou inteligenci využívat efektivně a hospodárně, vybudujete kolem jejího využívání robustní systém řízení rizik a správy a výrazně snížíte právní rizika. Je-li je vaše společnost již certifikována podle ISO 27001 nebo jiných norem, jako je ISO 22301, využijete synergických efektů při zavádění systému řízení AI podle ISO 42001 do stávajících systémů řízení a co se týká kybernetické bezpečnosti , budete optimálně a komlexně připraveni!

CIS Certification GmbH je průkopníkem v oblasti certifikace AI a již i udělila první certifikát ISO 42001.

AI jako impuls pro vaši kariéru?

Chcete využít rychle se měnících podmínek v oblasti AI a prosadit se ve velmi dynamickém oboru podnikání? Pak je školení na manažera AI právě pro vás! Během tří dnů se seznámíte s klíčovými prvky normy ISO/IEC 42001, implementací systému řízení AI a právními základy. Tento vzdělávací kurz vám poskytne špičkové odborné znalosti v oblasti podnikání, která bude i v budoucnu vysoce aktuální a to napříč všemi obory ekonomiky.