Big_loader_ajax

EU a umělá inteligence

07.06.2021

Sociální manipulace a algoritmická předpojatost v oblasti umělé inteligence jsou některé z největších výzev týkajících se společnosti na lokální i globální úrovni. Lidské předsudky jsou v lidstvu hluboce zakořeněny, a pokud je necháme bez kontroly expandovat do systémů umělé inteligence, prohloubí či započnou vážné sociální problémy. Takzvané inherentní zkreslení v souborech dat, kterými trénujeme algoritmy AI, může být spojeno s rasovými, genderovými nebo etnickými předsudky. Tyto algoritmy dělají pro mnoho lidí velmi důležitá rozhodnutí. Mohou například vybrat potenciální zaměstnance na pohovor, nebo určovat komu bude udělena jak vysoká kauce nebo komu bude poskytnuta půjčka apod. Proto jedním z předpokladů využívání AI v Evropské Unii, je, že konečné rozhodnutí umělé inteligence bude vždy obsahovat i lidský faktor.

Zároveň Evropská komise přímo rozdělila AI do 4 kategorií podle stupně rizika; minimální, střední, vysoké a neakceptovatelné riziko. Do minimálního rizika se řadí například videohry do středního pak chatboti, kde musí transparentně specifikováno, že uživatel komunikuje s robotem. Vysoké riziko, jsou třeba různé výběrové procesy založené na neuronových sítích AI. V tomto případě je lidský dohled zcela nepostradatelný, jelikož neuronové sítě jsou pro člověka zcela netransparentní.

Pokud však skrytá algoritmická předpojatost nebude rozpoznána, mohlo by to vést k neetickým a nespravedlivým následkům. Jak zdůrazňuje profesor Oxfordské univerzity Nick Bostrom, umělou inteligenci lze použít k manipulaci s veřejností, což bylo například zaznamenáno v amerických prezidentských volbách v roce 2016, zejména k zesílení dezinformací. Řešení je velmi konvenční, ale stále je v konkrétních případech obtížně použitelné. Aby bylo možné se nadále rozvíjet, vše vyžaduje dlouhodobý trénink a testování. Výchozím bodem tedy může být výcvik těchto systémů s nezaujatými daty, která jsou aktivně pod kontrolou, o což se například snaží firma Microsoft, která vyvíjí nástroj automaticky identifikující předpojatost v řadě AI algoritmů.

Tváří v tvář rychlému technologickému vývoji v oblasti umělé inteligence a kontextu globální politiky, kde stále více zemí investuje velké množství do této oblasti, musí EU jednat tak, aby zavčas podchytila a řešila její výzvy, a zminimalizovala jakékoliv hrozby. S cílem podpořit rozvoj umělé inteligence a řešit potenciálně vysoká rizika, která představuje pro bezpečnost a základní práva, Evropská komise předložila jak návrh regulačního rámce pro AI, tak koordinovaný plán.

Tři vzájemně související právní iniciativy navržené Komisí pomohou učinit z Evropy bezpečné a inovativní prostředí pro rozvoj umělé inteligence.

  1. Evropský právní rámec pro AI k řešení základních práv a bezpečnostních rizik specifických pro systémy AI
  2. Pravidla EU pro řešení otázek odpovědnosti souvisejících s novými technologiemi, včetně systémů umělé inteligence (poslední čtvrtletí 2021 - první čtvrtletí 2022)
  3. Revize odvětvových bezpečnostních právních předpisů (např. Nařízení o strojních zařízeních, směrnice o obecné bezpečnosti výrobků, druhé čtvrtletí 2021)

Další klíčovou součástí strategie Evropské komise v oblasti AI je maximalizace zdrojů a koordinace investic. Prostřednictvím programů Digitální Evropa a Horizont Evropa plánuje Komise investovat 1 miliardu EUR ročně. Zároveň chce zmobilizovat další investice ze soukromého sektoru a členských států, aby do roku 2030 dosáhl tento sektor ročního objemu investic 20 miliard EUR. Přístup k vysoce kvalitním datům je dalším zásadním faktorem při budování vysoce výkonných a robustních systémů AI. Správnou infrastrukturu pro budování těchto systémů poskytují iniciativy, jako je například strategie EU v oblasti kybernetické bezpečnosti, zákon o digitálních službách a zákon o digitálních trzích či zákon o správě dat.

Avšak tyto regulační rámce a plány mají svá omezení, jelikož nyní slouží pouze jako vodítko k uchopení umělé inteligence. Stejně jako v případě GDPR zavedených v roce 2018, bude záležet na rozhodnutí jednotlivých členských států EU, jak tyto regulace implementují. Zároveň některá ustanovení nejsou plně a jednoznačně definována. Například ustanovení proti „podprahovým technikám, které přesahují vědomí člověka, aby výrazně ovlivnilo jeho chování“ způsobem, který by mohl způsobit psychickou újmu. Zde se primárně jedná o otázku, zda to platí i pro zpravodajské kanály sociálních médií a cílenou reklamu? 

Musíme si tedy uvědomit, že přes úspěchy umělé inteligence jsou její systémy velice křehké a potenciální hrozby mohou nastat kdykoli. Zejména při nasazování umělé inteligence v oblastech, kde často dělá důležitá rozhodnutí s prominentním dopadem na bezpečnost a blahobyt člověka, jsou potenciální rizika zneužití vyšší a je třeba je pečlivě zvážit a případně efektivně minimalizovat.

Autor článku : Miloslava Macková (stážistka Luďka Niedermayera)