Dopady legislativních opatření na algoritmy umělé inteligence – mezinárodní tým odborníků diskutoval na FEL ČVUT

Jaké technologické změny čekají algoritmy umělé inteligence v kontextu plánovaných regulací EU? Touto otázkou se zabývali řešitelé mezinárodního projektu AutoFair, kteří se 25. 10. 2022 sešli na FEL ČVUT. Oficiální zahájení 95milionového projektu z programu Horizon Europe přineslo řadu zajímavých postřehů z výzkumu i praxe. Podělili se o ně poslanec Evropského parlamentu Marcel Kolaja, vedoucí sektorové AI politiky v Evropské komisi Irina Orssich, vedoucí výzkumu v České národní bance Martin Hodula a zástupci FEL ČVUT, izraelského Technionu, IBM Research, softwarových firem Workable a Avast, startupu Dateio a francouzské banky BNP Paribas. K jakým závěrům došli?

Jak v úvodním příspěvku upozornil koordinátor projektu AutoFair Jakub Mareček z FEL ČVUT, umělá inteligence je stále výkonnější. Výzvou pro zákonodárce, inovátory i výzkumníky je tudíž to, aby algoritmy umělé inteligence byly kompatibilní s lidmi. Právě myšlenka tzv. „Human-Compatible AI“ je hybnou silou celého výzkumného projektu. Na jeho konci by měly vzniknout modely umělé inteligence, které splňují dvě klíčová kritéria: transparentnost a férovost. Součástí vývoje pak bude nasazení takových algoritmů do platforem průmyslových partnerů – IBM, Dateio a Workable. Konkrétně najdou výstupy využití v oblasti marketingu, bankovnictví a personalistiky. Během setkání byly tyto plány představeny zaměstnanci zmíněných firem.

Jedním z příkladů použití etické umělé inteligence je nábor lidí, kdy software bude eliminovat předsudky a diskriminace ve společnosti a také nabízet vysvětlení pro jednotlivé kroky v procesu automatizace náboru. Jak to může konkrétně vypadat? Datasety o reálném zastoupení žen ve vedoucích pozicích jasně ukazují genderovou nerovnost, avšak vylepšený algoritmus vezme v potaz toto zkreslení (bias) a nebude znevýhodňovat kandidátky na základě tohoto ukazatele. Navíc program doloží, proč určitá rozhodnutí či doporučení udělal, aby náborář mohl tato data sám posoudit – tato vysvětlitelnost (explainability) je zcela zásadní. Zmíněný příklad je velmi zjednodušující, avšak ukazuje, že lze některé společenské problémy řešit pomocí algoritmizace. 

Někdy je však taková diskriminace či potenciální zneužití dat méně patrné. O tom ve své prezentaci mluvila výzkumnice Elizabeth Daly z IBM Research, která se s týmem věnuje validaci modelů pro umělou inteligenci. Upozorňovala na to, že některé osobní údaje nemusejí na první pohled znít jako citlivé, avšak lze z nich vyvodit kritické informace. Například z dat o tom, kde nakupujeme, mohou banky vyčíst, zda máme potomky, jestli jsme nemocní nebo zda jsme měli úspěšný kvartál v práci. Všechny tyto údaje pak mohou vést k diskriminaci, byť data o rodičovství, zdravotním stavu či platových bonusech banka pro potřeby marketingu přímo nesbírá.

Často skloňovaným problémem v kontextu umělé inteligence a její regulace je odpovědnost. Kdo by v případě selhání algoritmu ručit za vzniklé škody? Během setkání se experti nejčastěji přikláněli k tvrzení, že za umělou inteligenci zodpovídá ten, kdo schválil její nasazení. Není tedy na vině vývojář ani dodavatel, nýbrž manažer nebo jiný pracovník, který dá implementaci algoritmu do firemních systémů zelenou. „K odpovědnosti musíme vést lidi, ne umělou inteligenci,“ uvedla vedoucí rizikové AI v BNP Paribas Lea Deleris. Doplnila také, že velkou roli hraje i složení týmů, které umělou inteligenci vyvíjejí nebo nasazují. Diverzita, ať už kulturní, nebo genderová, je proto klíčová v zajištění férové AI.

Téma, které mezi účastníky velmi rezonovalo, bylo bodování lidí neboli social scoring. Jak Poslanec EP Marcel Kolaja, tak i další řečníci ostře kritizovali kategorizaci občanů na základě dat, která by je znevýhodňovala v získání rovných příležitostí. „Tuto Pandořinu skříňku rozhodně nechceme otevřít,“ uvedl jasně. Diskriminace se však může odehrávat i jinde. Účinným mechanismem pro zpětné ověřování správnosti a férovosti rozhodnutí na základě umělé inteligence je podle něj uchovávání dat po dobu několika měsíců. Největší výzvou pak je, aby nastavený systém byl spravedlivý, ale zároveň praktický a udržitelný. Současně u řady případů vyvstává otázka ochrany soukromí, jako při sběru dat z kamer samořiditelných aut, která mohou zachycovat i kolemjdoucí a v nesprávných rukou by jejich identifikace mohla být zneužita.

Ze všech diskuzí bylo patrné, že si řešitelé projektu jsou vědomi těchto i dalších rizik spojených s umělou inteligencí. Zároveň ale neskrývali své nadšení pro obor a hledání řešení, která by přispěla k ochraně společnosti. Potenciálu umělé inteligence totiž věří a legislativní pojistky vítají. Díky rozmanitému týmu, který těží z expertizy v různých oborech, má projekt jednoznačně šanci naplnit vytyčené cíle. Tím je naplnit potenciál umělé inteligence, která bude sloužit lidem. Transparentně a férově. Budeme držet palce!