Uniklý plán Komise regulace umělé inteligence

Čtyři hlavní nedostatky

Uniklý plán Komise regulace umělé inteligence

Čtyři hlavní nedostatky

Oficiální návrh nařízení týkající se umělé inteligence (AI) měla představit Evropská komise až 21. dubna. Nicméně server Politico zveřejnil jeho uniklou verzi na svých stránkách už v průběhu minulého týdne. Tudíž se na něj pod drobnohledem můžeme podívat už nyní a zanalyzovat klíčové body, které je ještě zapotřebí dále upravit.

O co jde?

Nový právní rámec by měla dostat právě legislativa týkající se umělé inteligence. Její využití nabízí pro společnosti spousty benefitů, na druhou stranu s sebou nese i mnohá rizika a hrozby. V únoru 2020 Evropská komise představila bílou knihu o umělé inteligenci: Evropský přístup k excelenci a důvěře.

Jako další krok v legislativním procesu by měla Margrethe Vestager, výkonná místopředsedkyně Komise pro digitální technologie, předložit 21. dubna oficiální návrh nařízení. Jaké čtyři hlavní nedostatky současný návrh obsahuje?

1. O jaké “umělé inteligenci” se to vlastně bavíme?

Ve stávající podobě nařízení rozděluje Komise systémy umělé inteligence do dvou kategorií: vysoce rizikové a “všechny ostatní”. Je zřejmé, že autonomní školní autobusy jsou ve srovnání se spamovými filtry v naší elektronické poště na jiné úrovni rizika. Existují ale různé úrovně a typy rizik, kterým můžeme být kvůli umělé inteligenci vystaveni. Rozhodně tedy nestačí nakreslit jednu tlustou čáru mezi těmito dvěma kategoriemi.

Existuje mnoho aplikací s rozdílnou závažností dopadů. Ne všechny musí spadat pod vysoce rizikové ve smyslu možné fyzické újmy, ale přesto mohou mít významný dopad na naše životy.

Vezměme si další příklad. Společnosti již dnes používají techniky, které jsou navrhovaným nařízením považovány za umělou inteligenci, k moderování obsahu na svých platformách—např. porovnávání hashů, filtrování klíčových slov, zpracování přirozeného jazyka—za účelem odstranění obsahu, který je v rozporu s podmínkami nebo je nezákonný. Jako vedlejší účinek to ale často vede k tomu, že takové technologie diskriminují zranitelné skupiny. Jejich obsah je pak odsunut do pozadí nebo úplně vynechán. To může být způsobeno tím, že kontext posuzuje algoritmus, nebo použitím datových sad, které obsahují diskriminační předpoklady. V návrhu regulace ovšem moderování obsahu nespadá pod vysoce rizikovou kategorii, přestože může hrát důležitou roli při cenzuře obsahu určité skupiny lidí nebo určitého typu obsahu.

Rozdělení kategorií bychom měli pozměnit, protože systémy umělé inteligence nelze rozdělit pouze na vysoce rizikové a “ty ostatní”. Jde spíše o jejich použití a možné důsledky než o samotnou technologii.

2. Postupy ohrožující občanská práva musí být zakázány; bez výjimky

Cílem nařízení je vytvořit právní rámec, který zabrání diskriminaci, bude předcházet rizikům, ale také zakáže praktiky, které budou v rozporu s občanskými právy či budou ohrožovat naši bezpečnost a zdraví. Současná forma nařízení zakazuje řadu využití umělé inteligence, která by beze sporu zakázána být měla. Patří mezi ně systémy umělé inteligence, které manipulují s lidským chováním, a prediktivní systémy umělé inteligence, jejichž cílem je zneužití zranitelností lidí. Má to ovšem háček: existují výjimky.

Tyto zákazy se totiž nevztahují na vlády a veřejné orgány Evropské unie, pokud jde o využití umělé inteligence “za účelem ochrany veřejné bezpečnosti”, a za předpokladu, že jsou v souladu s evropským právem. Takže je veřejným orgánům umožněno například sledovat lokaci, soukromou komunikaci na sociálních sítích i všechny záznamy a stopy, které za sebou uživatelé zanechávají v digitálním světě, a to při splnění této podmínky. To ale může být jednoduše zneužito pro plošné sledování občanů zejména v zemích, kde je ohrožena nezávislost soudů. Například maďarská vláda díky zákonu proti dezinformacím takzvaně v zájmu bezpečnosti státu perzekuovala novináře za to, že zpochybňovali kroky vlády v době pandemie. Dokonce i čínský monitorovací systém je zřízen za údajným účelem zajištění bezpečnosti. Proto je nutné vytvořit precedent, který nás nebude ohrožovat, a to i v případě (a zejména v případě), když demokracie není ve své nejlepší formě.

Tyto obavy opakovaně vyjádřil i otevřený dopis 116 poslanců Evropského parlamentu, který vyzývá vedoucí představitele Evropské komise, aby řešili rizika vyvolaná vysoce rizikovými aplikacemi umělé inteligence, která mohou ohrožovat základní lidská práva. Stejný požadavek vznesli během veřejné konzultace i občané.

3. Vysoce rizikové aplikace by měly projít schvalovacím procesem třetí strany

Návrh zahrnuje definici takzvaných vysoce rizikových systémů umělé inteligence. Příkladem může být použití umělé inteligence pro dozor nad nizozemským systém sociálního zabezpečení. Jeho cílem bylo předpovědět pravděpodobnost, že se jednotlivec dopustí daňových podvodů, zneužívá sociální dávky nebo porušuje pracovněprávní předpisy. Ten byl již zrušen právě kvůli porušování lidských práv. Vysoce rizikové systémy zahrnují také nástroje pro personalistiku, které třídí naše životopisy, či bankovní systémy, které zjišťují naši bonitu, tedy schopnost splácet dluhy. Dále například prediktivní kontrolní systémy, které jsou extrémně riskantní pro vytváření předsudků. Stručně řečeno, tyto nástroje mohou mít vážný dopad na naše životy.

Velká část těchto nástrojů by měla podléhat pouhému sebehodnocení, tedy vlastnímu posouzení rizik. Ač jsem rád, že v souladu s názorem Pirátů, návrh nařízení zařazuje určité systémy umělé inteligence do kategorie vysoce rizikových systémů, sebehodnocení shody není dostačující a mělo by být zajištěno třetí stranou.

V případě vlastního posuzování shody, by ale vyhodnocování rizikovosti výrobku měl na starosti přímo poskytovatel systému umělé inteligence a nemusel by tak projít oficiálním schválením příslušným orgánem. Po vypracování technické dokumentace by poskytovatelé provedli posouzení shody sami. Pokud vyhodnotí, že jejich vysoce rizikový systém umělé inteligence je v souladu s požadavky tohoto nařízení, prohlásí jej za schválený.

4. Otevřenost systémů pomáhá předcházet chybám

Uživatelé, akademici a každý z nás by měl mít právo porozumět základní logice systému umělé inteligence, který využíváme. Momentálně je zapotřebí zveřejňovat pouze netechnickou dokumentaci. Dle současné podoby nařízení musí být všechny strany chráněny ve smyslu obchodně důvěrných informací, obchodních tajemství, a to včetně práv tzv. duševního vlastnictví, pokud zveřejnění není ve veřejném zájmu.

Tato úroveň důvěrnosti je v rozporu s naší výzvou umožnit přístup každému, kdo by chtěl vědět, jak takový systém funguje. Společnosti by měly být podporovány v transparentním navrhování systémů a také v uvolňování kódu a datových sad pod svobodnou a otevřenou licencí (Open Source). Taková úroveň otevřenosti by umožnila více vhledu do fungování systému a pomohla by vyřešit mnoho problémů. Nemá smysl publikovat pouze technickou a obchodní dokumentaci, když následně nelze ověřit její pravost nahlédnutím do kódu. Soubory údajů by měly být auditovatelné kompetentními orgány a občanskou společností, což je zvláště nutné v případě systému, který se neustále učí. Svobodný a Open Source Software je nejvhodnější řešení.

Co bude dál?

Mým cílem v Evropském parlamentu je podporovat inovace a přitom zajistit bezpečnost a ochranu soukromí evropských občanů. Legislativní rámec pro využití umělé inteligence je bezesporu potřebný a je dobrým krokem. Je zapotřebí nastavit jasná pravidla, která nebude snadné obcházet. Nová legislativa musí vyplnit všechny mezery, které by mohly být zneužity. Technologický pokrok vpřed nesmí znamenat krok vzad z pohledu občanských svobod. Po oficiálním představení návrhu přejde legislativní štafeta na Evropská parlament a Radu. Jakmile návrh přijde na “náš stůl” budu pracovat na tom, aby se do návrhu dostaly potřebné úpravy.

Viz také