Image
7.5.2019 0 Comments

AI bias: Ako vzniká predpojatosť AI a prečo je ťažké opraviť ju

Predpojatosť umelej inteligencie (AI bias) sa môže prejaviť v mnohých štádiách procesu hlbokého učenia a štandardné postupy v počítačovej vede nie sú určené na to, aby to zistili. Veľká väčšina aplikácií AI dnes vychádza z kategórie algoritmov známych ako hlboké učenie (deep learning), ktoré nachádzajú vzory v údajoch.

Tieto algoritmy však môžu svojou predpojatosťou ovplyvniť život ľudí tým, že vnesú nespravodlivosť do mnohých oblastí – od zamestnávania až po trestnoprávny systém. No nestačí len vedieť, že táto predpojatosť existuje. Ak ju chceme napraviť, musíme predovšetkým pochopiť mechanizmus toho, ako vzniká.

Ako dochádza k AI biasu?
Často si predpojatosť AI vysvetľujeme tým, že nedostáva nestranné údaje pri výcviku. Realita je však trochu zložitejšia. Skresľovanie sa môže prejaviť už dlho pred zhromažďovaním údajov a v mnohých ďalších štádiách procesu hlbokého učenia. Zameriame sa na tri kľúčové etapy.

Rámcovanie problému. Pri vytváraní modelu hlbokého učenia sa musia vedci rozhodnúť, čo v skutočnosti chcú dosiahnuť. Napríklad spoločnosť zaoberajúca sa kreditnými kartami môže chcieť predpovedať úverovú bonitu klienta. Bonita je však hmlistý pojem. Treba ho preložiť do niečoho, čo sa dá vypočítať. Spoločnosť sa teda musí rozhodnúť, či chce maximalizovať svoje ziskové marže alebo maximalizovať počet splácaných pôžičiek. Potom môže definovať úverovú bonitu v súvislosti s týmto cieľom. Takéto obchodné rozhodnutia sa však robia z iných dôvodov, než je spravodlivosť či diskriminácia. Ak algoritmus zistí, že poskytovanie úverov s tvrdými podmienkami pre klienta je spôsob maximalizácie zisku, bude sa správať koristnícky (vysoké úverové sadzby), hoci to nebolo zámerom spoločnosti.

Zhromažďovanie údajov. Existujú dva spôsoby, ako sa bias prejavuje pri výcvikových údajoch. Buď údaje, ktoré zbierate, nie sú reprezentatívne a odrážajú existujúce predsudky, alebo vycvičíte AI  na základe historických rozhodnutí, ktoré nebolo celkom nestranné. Prvý prípad by mohol nastať, keby ste algoritmu hlbokého učenia dodávali viac fotiek tvárí so svetlou pokožkou ako tvárí s tmavou pleťou. Systém rozpoznávania tváre by potom nevyhnutne dosahoval horšie výsledky pri rozpoznávaní ľudí s tmavšou pokožkou. Druhý prípad sa stal Amazonu, keď vycvičil AI na základe predchádzajúcich rozhodnutí pri nábore zamestnancov, keď sa uprednostňovali muži pred ženami. Algoritmus sa potom naučil robiť to isté.

Príprava údajov. Napokon sa môže skresľovanie zaniesť v štádiu prípravy údajov, kde treba vybrať, ktoré atribúty má AI zvažovať (nezamieňať si so štádiom rámcovania problému – môžete použiť rovnaké atribúty na výcvik modelu na veľmi odlišné ciele alebo použiť veľmi odlišné atribúty na výcvik modelu na ten istý cieľ). Ak sa vrátime k modelovaniu úverovej bonity z úvodu, použité „atribúty“ by mohli zahŕňať vek klienta, jeho príjem alebo počet splácaných úverov. V prípade náborového nástroja spoločnosti Amazon by to mohli byť pohlavie, stupeň vzdelania, nadobudnuté skúsenosti kandidáta a pod. Skutočným „umením“ pri výcviku AI je výber atribútov, ktoré treba zvažovať alebo ignorovať. Môže to totiž výrazne ovplyvniť presnosť predikcií vášho modelu. Napriek tomu, že vplyv na presnosť modelu je ľahko merateľný, vplyv na jeho predpojatosť už taký nie je.

Prečo sa dá AI bias len ťažko opraviť?
Hoci niektoré z problémov zmierňovania predpojatosti môžu byť jasné, poukážeme na štyri najdôležitejšie z nich.

Veľa neznámych. Vnesenie skreslenia nie je vždy zrejmé v procese vytvárania modelu, pretože si neuvedomujete následný vplyv vašich údajov a volieb. Je ťažké retroaktívne zistiť, odkiaľ predpojatosť pochádza, a zbaviť sa jej. Keď inžinieri Amazonu zistili, že ich algoritmus znevýhodňuje kandidátky, preprogramovali ho, aby vyslovene ignoroval rodovo definované slová ako „ženy“. Čoskoro však zistili, že aj revidovaný systém bral do úvahy slová, ktoré korelovali skôr s mužmi ako ženami, a tomu prispôsoboval svoje rozhodnutia.

Nedokonalé procesy. Veľa štandardných postupov v hlbokom učení nie je navrhnutých s úmyslom zisťovania predsudkov. Pred nasadením sa pri modeloch deep learning testuje výkonnosť. Možno by sa zdalo, že je to perfektná príležitosť na zistenie predpojatosti. V praxi to však vyzerá tak, že vedci náhodne rozdelia zhromaždené údaje na jednu skupinu, ktorá sa používa pri výcviku, a druhú, ktorá sa využije na validáciu. Tak sa môže stať, že na výcvik aj validáciu použijete údaje ovplyvnené rovnakou zaujatosťou. Preto sa nepodarí zistiť skreslenie a predsudky.

Nedostatok spoločenského kontextu. Spôsob, ako sa vedci učia rámcovať problémy, často nie je kompatibilný s najlepším spôsobom, ako premýšľať o spoločenských problémoch. V rámci informatiky sa považuje za dobrú prax navrhnúť systém, ktorý možno použiť na rôzne úlohy v rozličných kontextoch. Ibaže sa tým ignoruje spoločenský kontext. Systém vytvorený v jednej krajine preto nemožno v rovnakej podobe použiť v inej krajine. Takisto nemožno systém, od ktorého žiadate „spravodlivé“ výsledky v trestnoprávnej oblasti, uplatniť v oblasti zamestnávania. Pojem spravodlivosti je totiž v týchto kontextoch úplne iný.

Definícia spravodlivosti. Nie je celkom jasné, ako vyzerá absencia predpojatosti. O tejto otázke sa vedú diskusie už dávno, a to nielen v informatike, ale aj vo filozofii, sociológii a práve. V počítačovej vede však pojem spravodlivosti musí byť definovaný z matematických hľadísk. Ide o vyvažovanie falošne pozitívnych a falošne negatívnych výsledkov predikčného systému. Možno povedať, že podiel belošských a černošských osôb bude mať vysokú váhu pri hodnotení rizika? Alebo že rovnaká úroveň rizika by mala vyústiť do rovnakého skóre bez ohľadu na rasu? Nemožno splniť obidve definície súčasne, takže v určitom okamihu sa musíte rozhodnúť pre jednu z nich. Zatiaľ čo v iných oblastiach sa toto rozhodnutie chápe ako niečo, čo sa môže časom meniť, počítačová veda má predstavu, že by malo byť fixné.

To sú iba niektoré problémy týkajúce sa predpojatosti AI. Našťastie veľa výskumníkov pracuje na ich riešení. Boli vypracované algoritmy, ktoré pomáhajú odhaľovať a redukovať skryté predpojatosti v rámci tréningových údajov alebo zmierňovať predsudky, ktoré model získal, bez ohľadu na kvalitu údajov. Oprava diskriminácie v algoritmických systémoch sa však nedá ľahko vyriešiť. Je to pokračujúci proces, napokon rovnako ako v prípade diskriminácie v akomkoľvek inom aspekte spoločnosti.

Zdroj: technologyreview.com.

Autor: Redakcia

Nechajte si posielať prehľad najdôležitejších správ emailom

Mohlo by Vás zaujímať

Technológie

Umelá inteligencia pre dobro Slovenska!

29.09.2019 00:00

Slovenská republika sa radí medzi krajiny, ktoré azda najviac ovplyvní vývoj umelej inteligencie. Veľká vlna globalizácie ustupuje a obchodné bariéry sa zvyšujú. Strata pracovných miest sa možno nater ...

Technológie

Umelá inteligencia sa naučila chápať a riešiť úlohy. Zvládla školský test ôsmakov

16.09.2019 00:10

Aristo úspešne absolvoval školský test pre ôsmakov. Možno si poviete, že to nie je nič zvláštne, lenže Aristo nie je školák, ale program umelej inteligencie. A odborníci považujú zvládnutie tejto úlo ...

Technológie

Nová virálna aplikácia dokáže vložiť vašu tvár do filmov a televíznych relácií

04.09.2019 00:15

V Číne žne úspechy bezplatná aplikácia Zao, ktorá s využitím jedinej fotografie dokáže vložiť vašu tvár do scén zo stoviek filmov a televíznych relácií. Aplikácia sa po svojom uvedení rýchlo dostala ...

Žiadne komentáre

Vyhľadávanie

Dgitalna medicina

Najnovšie videá

SlovakiaTech 2019