Přínosy umělé inteligence
Nástroje a aplikace s umělou inteligencí se prosazují v řadě oblastí. Od komunikace s klienty a vyřizování běžných administrativních požadavků, přes kybernetickou bezpečnost, odhalování technických chyb výrobků, účetnictví až k vývoji počítačového kódu či lékařské diagnostice.
Jaké jsou hlavní výhody umělé inteligence?
-
Úspora kapacit při automatizaci opakovaných úkonů
-
Rychlejší vyhledání a kontrola informací v rozsáhlých podkladech
-
Snadnější identifikace vzorců chování
-
Efektivnější učení se z chyb
-
Rychlejší zlepšování vlastních procesů
-
Objektivnost a zajištění stejného posuzování typově stejných podnětů
Bez umělé inteligence se řada oborů už brzy neobejde. Společnost, která efektivně využije možností AI, ušetří, zrychlí a vylepší svoje postupy. Firma, která AI systematicky nevyužije, bude pomalejší, často horší a dražší.
Na co si dát při využití AI pozor
Umělá inteligence s sebou ovšem nese i rizika a hrozby. Pro organizace, které AI hodlají využívat, stejně jako pro koncové klienty.
Na jaké otázky by si měla organizace při nasazení umělé inteligence odpovědět?
-
Kdo bude vlastníkem výstupů z AI, ilustrací, dokumentů nebo počítačového kódu? Organizace nebo provozovatel AI?
-
Jak ověřit správnost výstupů z AI a vyhnout se tomu, aby do kódu nebyl zavlečeny bezpečnostní slabiny, zákaznická stížnost nebyla špatně vyřízena nebo u pacienta nebyla provedena nesprávná diagnóza?
-
Bude moci organizace výstupy AI použít i komerčně, neporuší tím práva někoho jiného?
-
K čemu bude provozovatel AI využívat vložená data? Bude je sdílet s ostatními uživateli, bude je využívat k tréninku AI, nebo je zpřístupní ještě někomu dalšímu?
-
Neobsahuje AI algoritmus chyby, které povedou k diskriminaci a porušování práv konkrétních lidí?
ISO 42001 a AI Act
Dne 1. srpna 2024 začíná platit první komplexní regulace využití umělé inteligence. Jedná se o nařízení Evropské unie, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci, tzv. AI Act. Evropská unie tím nastavuje jasná pravidla pro vývoj, distribuci a využití umělé inteligence.
Při činnostech, ve kterých jsou rizika spojené s umělou inteligencí nepřijatelná, bude její využití zakázáno. Jedná se například o automatické profilování a segmentaci lidí na základě citlivých či biometrických charakteristik, vytváření tzv. sociálního skóre či automatického hodnocení emocí a chování ve škole nebo na pracovišti.
Využití umělé pro další účely bude přípustné. Organizace, které budou AI nástroje vyvíjet, nasazovat na trh či zavádět do praxe, však budou muset plnit řadu dalších povinností, právě proto aby předešly negativním dopadům do práv lidí. Bude to platit zejména pro tzv. vysoce rizikové oblasti:
-
Školství a vzdělávání
-
Zdravotnictví
-
Poskytování finančních služeb (úvěry, pojištění)
-
Správa kritické infrastruktury
-
Výběr a hodnocení zaměstnanců
-
Bezpečnost výrobků
-
Oblast migrace a ochrany hranic
-
Výkon práva a některé činnosti bezpečnostních orgánů
Při vývoji, nasazování a používání AI, zejména ve vysoce rizikových oblastech, ale v přiměřeném rozsahu i jinde, bude nutné přijmout řadu opatření ke snížení rizik.
Účinnost AI Actu bude nabíhat postupně ve třech fázích:
-
Od 2. února 2025 začnou být účinná obecná ustanovení AI Actu a zákaz využití AI v některých velmi rizikových oblastech či pro některé činnosti, jako je manipulace lidí, jejich automatické hodnocení na základě chování (tzv. sociální skóre), plošné snímání a rozpoznávání obličejů atd.
-
Zahájení činnosti dozorových úřadů, dozor na úrovni EU a pravidla pro obecné modely AI začnou být účinné od 2. srpna 2025.
-
Zbytek AI Actu, včetně pravidel pro řízení rizik, dokumentaci, kontrolu kvality atd., pak vstoupí v plnou účinnost dne 2. srpna 2027.
Shrňme hlavní body a povinnosti podle AI Actu: Organizace budou povinny hodnotit rizika pro dotčené osoby, zajistit kontrolu nad systémem AI a jeho výstupy, určit interní role a odpovědnosti, vše dokumentovat a být vůči dotčeným osobám plně transparentní. Budou muset rovněž zajistit bezpečnost a odolnost systémů AI, včetně ochrany zpracovávaných informací a osobních údajů. Pro vysoce rizikové AI systémy bude nezbytné získat posouzení a certifikaci shody s regulatorními požadavky.
Za porušení povinností dle AI Actu hrozí astronomické pokuty! V některých případech, zejména nedodržení povinností při využití AI pro tzv. zakázané účely, až do výše 35.000.000 EUR nebo 7 % z celosvětového ročního obratu daného podniku.
Získejte náskok díky ISO certifikaci
Chcete být na AI Act včas připraveni? Neřešit všechny požadavky na poslední chvíli, pod tlakem a za vynaložení zbytečných nákladů? Využijte mezinárodního standardu ISO 42001.
Požadavky ISO 42001 a AI Actu budou v řadě oblastí totožné. Nastavení interních procesů a pravidel pro využití umělé inteligence podle ISO 42001 vám už nyní pomůže efektivně splnit velkou čát požadavků AI Actu. A také to jednoznačně doložit.
Platit to bude i po vydání prováděcích předpisů AI Actu, které řadu povinnosti upřesní. I pak bude pro organizaci, která postupuje v souladu s normou ISO 42001, snadné posoudit, zda prováděcí předpisy a nové výklady obsahují požadavky nad rámec normy a případně je do svého Systému řízení umělé inteligence (AIMS) rychle doplnit. Bude to každopádně rychlejší a snadnější, než začínat úplně od nuly, ztrácet čas a sledovat konkurenci, jak pomocí AI dobývá trh.
Skanzen, nebo efektivní a etické využití umělé inteligence?
Rizika týkající se ochrany dat či autorských práv při využití umělé inteligence, a také nová regulace a hrozící astronomické pokuty podle AI Actu, vedou k tomu, že část organizací a veřejnosti je k AI skeptická. To může brzdit smysluplné nasazení AI v soukromém sektoru i veřejné správě a samosprávě. A vést Českou republiku, a vlastně i celou Evropu, do technologického skanzenu.
Jak z toho ven?
Existuje nástroj, který může jednoznačně doložit, že firma nebo úřad umělou inteligenci používá odpovědně, eticky a s ohledem na práva dotčených lidí?
Ano, ISO certifikace!
V prosinci 2023 vyšla první ISO norma řešící etické a odpovědné využití umělé inteligence. Jedná se o normu ISO/IEC 42001:2023, která popisuje požadavky a kontroly pro Systém řízení umělé inteligence (Artificial Intelligence Management System, AIMS).
Systém řízení umělé inteligence v praxi
Jaké jsou základní prvky Systému řízení umělé inteligence (AIMS) podle ISO normy? Co je pro organizaci nezbytné pro zajištění celkové správy a kontroly nad využitím umělé inteligence?
Základními body AIMS jsou:
-
Porozumění specifikům a potřebám organizace se zaměřením na využití AI
-
Jasný přístup a závazek vedení k etickému a transparentnímu využívání AI
-
Přijetí interní strategie pro využití umělé inteligence
-
Určení rolí a odpovědností jednotlivých organizačních složek a funkcí v organizaci za využití a kontrolu nad AI
-
Identifikace rizik plynoucích z využití umělé inteligence – pro organizaci i pro další dotčené subjekty
-
Nastavení opatření a kontrol ke snížení nepřijatelně vysokých rizik plynoucích z AI nástrojů
-
Zajištění kvalifikace, odborné přípravy a dostatečných zdrojů pro zaměstnance podílející se na využití AI
-
Zajistit pravidelné hodnocení AI rizik, dostatečnosti kontrol a celého nastaveného procesu a odstraňování jejich slabin.
-
Celý systém a všechny jeho důležité části a postupy dokumentovat
Pokud bychom to měli shrnout, je nutné definovat cíle a procesy, které chce organizace pomocí AI řešit, identifikovat a popsat rizika, která může využití AI přinést, tato rizika ošetřit a definovat a dokumentovat související procesy a odpovědnosti.
Spojte certifikaci AI s dalšími ISO normami a standardy!
Znějí vám požadavky na Systém řízení umělé inteligence (AIMS) povědomě? Ano, podstata systému řízení AI je podobná, jako u jiných procesů interního řízení. Jednotlivé prvky AIMS, např. znalost vlastní organizace, řízení rizik, nastavení kontrol, neustálé vylepšování systému atd., jsou velmi blízké požadavkům na interní procesy například v oblasti:
-
Ochrany informací podle ISO norem řady 27000
-
Zpracování osobních údajů podle ISO 27701
-
Compliance systému dle normy ISO 37301
-
Whistleblowingu podle ISO 37002
Klíčové postupy a prvky jsou stejné. Rozdíl je jen v zaměření na určitý segment a pokrytí specifických rizik. V případě ISO 42001 upravující Systém řízení umělé inteligence se jedná o řízení rizik vyplývajících právě z využití AI.
Postupem normy ISO 42001 lze efektivně snížit hrozby vyplývající z nekontrolovaného a netransparentního vývoje a použití umělé inteligence. Certifikací může každá organizace potvrdit a veřejně demonstrovat svoji vůli a závazek k AI přistupovat uváženě a eticky.
AI certifikace chytře
Osvědčená praxe pro interní procesy shrnutá v ISO normách obsahuje mnoho společných prvků. Jasně definovat cíle a potřeby dané organizace, identifikovat a hodnotit rizika, nastavit a dokumentovat pravidla, odpovědnost a kontroly, zajisit transparentnost, školení zaměstnanců a pravidelný přezkum a vylepšování celého systému. Platí to jak pro řízení bezpečnosti informací, tak pro ochranu osobních údajů, compliance systém, whistleblowing i pro Systém řízení umělé inteligence (AIMS).
Jak toho využít?
Potřebujete správně nastavit procesy pro ochranu informací, řízení kvality i využívání AI a to vše doložit certifikací? Upravte interní postupy tak, aby zajistily splnění požadavků všech norem, které jsou pro vás důležité!
V praxi je velmi efektivní nastavit například jeden proces pro identifikaci, hodnocení a řízení rizik, ať už se týkají informační bezpečnosti, dopadů na osobní údaje nebo AI. Nebo využít stejných kapacit a procesu pro kontrolu a vylepšování všech zavedených systémů řízení.
Umělá inteligence a certifikace podle ISO 42001 tak může být výborným impulsem i pro hledání úspor a efektivního nastavení dalších vnitřních procesů v každé organizaci. A to se vyplatí!