Image
9.7.2018 0 Comments

Umelá inteligencia nemusí byť vždy spravodlivá - ako to ale spoznať?

Nástroj, ktorý ľuďom pomôže identifikovať a prípadne napraviť neférové skreslenie algoritmov umelej inteligencie, vyvinula firma Accenture. Cieľom je zachytiť diskrimináciu skôr, než začne infikovať modely AI a spôsobovať škodu.

AI airness je súčasťou širšieho balíka, ktorý firma nedávno ponúkla ako podporu transparentnosti a etiky pri zavádzaní strojového učenia. Počítačové algoritmy sa dostávajú do úlohy, kedy v prvom site rozhodujú o rade záležitostí - robia akýsi predvýber, ktorý predkladajú na doriešenie "ľudským" kolegom.

A tak umelá inteligencia môže rozhodovať o tom, či určitý človek dostane pôžičku, ponuku zamestnania, prípadne povolenie k určitej činnosti. Accenture sa preto v rámci aktivít zameraných na odstránenie zaujatosti k AI rozhodla vytvoriť nástroj, ktorý vyhodnocuje, či systémy AI rozhodujú spravodlivo a objektívne.

Umelá inteligencia sama o sebe nemôže byť spravodlivá alebo nespravodlivá - ide o to, že algoritmy, ktoré pre rozhodovanie využíva, môžu kodifikovať nesprávne ľudské chápanie. AI Fairness je určený na rýchlu identifikáciu a následnej pomoci pri riešení problémov v algoritmoch.

"Našim cieľom je sprístupniť tento nástroj spoločnostiam, ktoré chcú rozšíriť svoje používanie AI, ale obávajú sa rizík neúmyselných dopadov," hovorí Rumman Chowdhury, líder v oblasti umelej inteligencie spoločnosti Accenture. "V minulosti sme našli modely, ktoré sú celkovo veľmi presné, ale ak sa pozriete, ako sa určitá chyba rozkladá nad podskupinami, uvidíte obrovský rozdiel medzi tým, ako správny je určitý model napríklad pre bieleho muža v porovnaní s čiernou ženou."

Nástroj tiež hľadá premenné, ktoré súvisia s ďalšími citlivými premennými. Algoritmus by napríklad nemusel explicitne zohľadňovať pohlavie, ale ak sa pozrie na príjem, mohol by ľahko oddeliť výsledky pre ženy a mužov.

Vyšetruje tiež chybovosť pre každú premennú, a či sú chyby pri niektorej skupine vyššie. Po tejto analýze je nástroj schopný opraviť algoritmus, ale pretože tento typ korekcie môže spôsobiť zníženie jeho presnosti, navrhne riešenie a umožní užívateľovi rozhodnúť, nakoľko sa má zmeniť.

AI Fairness môže nájsť uplatnenie v rôznych, nielen priemyselných odvetviach, pričom sa predpokladá, že prvými používateľmi budú tí, ktorí sa nachádzajú v najviac regulovaných odboroch (napríklad finančných služieb a zdravotnej starostlivosti), kde je potenciál nežiaducich dopadov AI veľký.

"Vidíme rastúce zameranie na algoritmické skreslenie a spravodlivosť. Rad štátov vytvára etické rady AI, Google nedávno vydal svoje etické pokyny," konštatuje Chowdhury. "Takže si myslím, že lídri v odbore AI, rovnako ako non-tech spoločností, hľadajú cestu. Hľadajú štandardy a protokoly a niečo, čím sa môžu riadiť, pretože chcú vytvárať a využívať bezpečné produkty."

Zdroj: computerworld.cz.

Zobrazit Galériu
Autor: Redakcia

Nechajte si posielať prehľad najdôležitejších správ emailom

Mohlo by Vás zaujímať

Technológie

Sony v tichosti vydalo nový model PS4

17.07.2018 00:18

Herné konzoly pravidelne dostávajú hardvérové aktualizácie, aby sa zlepšil ich výkon či znížili výrobné náklady. Aj spoločnosť Sony teraz uviedla PlayStation 4 s modelovým označením CUH-2200 (predchád ...

Technológie 3

Najnovší čínsky kvantový radar vraj dokáže odhaliť aj „neviditeľné“ lietadlá a rakety typu stealth

17.07.2018 00:20

Najvýznamnejšia čínska spoločnosť zameraná na vojenskú elektrotechniku China Electronics Technology Group Corporation (CETC) oznámila, že jej kvantový radar dosiahol ďalšie pokroky, ktoré by mu umožni ...

Technológie

Video: Študenti nám predviedli robota, s ktorým budú súťažiť na robotickej olympiáde v Mexiku

17.07.2018 00:05

Tím nadaných stredoškolákov - Martin, Adam, Viliam, Tomáš a Oliver, nás už čoskoro bude reprezentovať na ďalšom ročníku prestížnej medzinárodnej robotickej olympiády FIRST Global v Mexiko City. Počas ...

q

Žiadne komentáre

Vyhľadávanie

Najnovšie videá



PC forum button