V českých obchodech nás šmírují

Měli bychom zpozornět?

V českých obchodech nás šmírují

Měli bychom zpozornět?

Článek vyšel 27. května 2021 jako komentář pro Aktuálně.cz.

Po dlouhé pauze jsme se dočkali chvíle, kdy se pomyslné dveře všech obchodů zase otevřely a my jsme vyrazili na nákupy všeho druhu. Ač čísla nakažených každým dnem klesají, obchodníci se neobešli bez přijmutí potřebných opatření jako je například povolený počet zákazníků na metr čtvereční.

Někteří z nich se rozhodli jít cestou systémů umělé inteligence. Ty mohou automaticky počítat počet zákazníků na prodejně, zda mají či postrádají pokrývku tváře, ale také sbírat data jako jejich odhadovaný věk či pohlaví. Kromě těchto důvodů, argumentují také tím, že systémy umělé inteligence jim mohou pomoci k hlídání zlodějů a ochraně jejich majetku.

Ač jsem zastánce toho, že technologie musí jít vpřed a potřebujeme digitalizovat naši společnost, technologický pokrok nesmí znamenat ústupek z hlediska občanských práv. Takové ohrožení mohou představovat právě systémy rozpoznávání tváří (z anglického facial recognition system).

Proč je užívání systémů rozpoznávání tváří riziko?

Systém rozpoznávání obličeje je počítačový program, který identifikuje osoby z fotografií či videí. Rozpoznávání tváře se provádí podle geometrických charakteristik obličeje a porovnává se s databází. Rozdíl mezi například pouhým počítáním lidí na prodejně a tímto pokročilejším systémem je, že tato technologie je schopna rozpoznat nejen nošení respirátoru, ale třeba i brýle, vousy, a dokonce odhadovat věk, pohlaví osoby nebo i emoce. Následně může shromažďovat biometrická data, která podobně jako DNA nebo otisky prstů mohou sloužit k identifikaci každého jednotlivce.

U nás se rozpoznávání obličejů využívá na letišti Václava Havla. Policie přemýšlela nad jeho užitím i v místech se zvýšenou koncentrací osob jako je metro či na turisticky oblíbených místech. Sledování lidí na veřejnosti za pomocí automatických systémů je ale nepřípustné.

Pokud by přišly do špatných rukou, mohly by velmi jednoduše omezovat svobodu nás všech jako můžeme vidět v nedemokratické Číně. Právě tyto systémy jsou hlavním pilířem jejich kreditního systému. Představte si, že třeba při účasti na demonstraci, kde kamera spojí váš obličej s konkrétní osobou, se v systému automaticky sníží vaše sociální skóre. Díky tomu nemáte nárok na úvěr nebo můžete zapomenout na pracovní povýšení. Riziko představuje i zdánlivě neškodné užívání kamer obchodníky. Proč?

Data jsou komodita dnešní doby, kterou si musíme chránit

Systémy rozpoznávání tváří dokážou rozeznat každého, kdo se před jejich sklem objeví. Dalo by se namítnout, že e-shopy využívají naše data už dávno. Tak proč bychom je nemohli sbírat i v reálném světě? Hned z několika důvodů.

V rámci nakupování on-line nám je ponechána možnost být do určité míry stále anonymní. Díky obecnému nařízení o ochraně osobních údajů (GDPR) máme možnost do určité míry se sbíráním našich osobních dat nesouhlasit a odmítnout sbírání cookies, ačkoli ochrana v této podobě často není dostatečná. Dále můžeme využívat anonymních oken nebo používat Adblock. A co se týče sbírání “anonymních demografických dat” o zákaznících, nesmíme zapomenout, že to samé tvrdili výzkumníci z Cambridge Analytica.

Tyto systémy, ač fungují na bázi učení a každým dnem jde technologie skokově dopředu, mají přeci jen stále vysokou chybovost. Vyskytly se případy, kdy měl člověk například bledou či tmavou tvář a systém jej při pasové kontrole nepustil dál, jelikož nezvládl rozpoznat přesné obličejové rysy a propojit člověka s fotkou na pasu. Nemluvě o riziku v chybovosti při porovnávání tváří v davech a následnému přiřazování ke konkrétní osobě.

V reálném světe máme od dobrovolného poskytování dat ale opravdu daleko. Pokud jsme sledováni tímto systémem, nemůžeme se ani v teoretické rovině rozhodnout, zda s odevzdáním dat souhlasíme. Například na rozdíl od systémů, kde se využívá otisk prstu.

Zneužití našich dat může vést i k diskriminaci na základě rasy, pohlaví, věku či etnické skupiny. Může dojít k systematickému sledování právě těchto skupin, či k pronásledování novinářů nebo politické opozice, ostatně jak pozorujeme v mnohých nedemokratických zemích. Kromě zmiňované Číny, například Ázerbájdžán a Bahrajn skrze sociální sítě identifikují odpůrce režimu, politické oponenty či příslušníky komunity LGBT, které následně pronásledují. Nebezpečí hrozí i u autoritářských režimů v Evropě. Ty by je mohly využít k pronásledování nezávislých novinářů a zabránění v investigativě.

Stopku systémům rozpoznávání obličeje dávají i její výrobci. Už v roce 2019 největší světový korporátní dodavatel kamer pro policejní orgány, firma Axon, oznámila, že v žádném ze svých produktů nebude používat technologii rozpoznávání obličeje – protože je příliš nespolehlivá pro práci v oblasti vymáhání práva a “může zhoršit stávající nerovnosti v policejní práci, například penalizací černošských nebo LGBTQ komunit.” Stejně tak po loňských protestech v USA Amazon vyhlásil jednoleté moratorium pro policejní používání těchto technologií spolu s voláním po potřebné legislativě. Nakonec i IBM ukončila své podnikání v oblasti technologií rozpoznávání obličeje s odvoláním na riziko porušování lidských práv.

Musíme stanovit jasnou linku

Závěrem, ano využívejme nové technologie a systémy. Pokud nám usnadní práci, nesbírá naše osobní data a nevede k naší následné identifikaci, určitě mohou být přínosné. Například čistě při počítání osob v obchodech. Musíme si ale uvědomit, že existuje pomyslná hranice, která přináší více škody než užitku. A tu bychom za žádnou cenu neměli překročit.

V současnosti projednáváme v Evropském parlamentu legislativu, která by měla nastavit hranice využívání technologií umělé inteligence tak, aby neohrožovala naše práva. Co se týče systémů rozpoznávání tváře, tak ty jsou daleko za touto hranou a jejich obecné využívání musí být zcela zakázáno. Plošné šmírování, a to ať ve světe on-line či off-line, není ospravedlnitelné v žádném případě. Měli bychom hledat cesty, jak svá data chránit, a ne nástroje, jak je sbírat ještě ve větším množství.

Viz také