Image
9.7.2018 0 Comments

Umelá inteligencia nemusí byť vždy spravodlivá - ako to ale spoznať?

Nástroj, ktorý ľuďom pomôže identifikovať a prípadne napraviť neférové skreslenie algoritmov umelej inteligencie, vyvinula firma Accenture. Cieľom je zachytiť diskrimináciu skôr, než začne infikovať modely AI a spôsobovať škodu.

AI airness je súčasťou širšieho balíka, ktorý firma nedávno ponúkla ako podporu transparentnosti a etiky pri zavádzaní strojového učenia. Počítačové algoritmy sa dostávajú do úlohy, kedy v prvom site rozhodujú o rade záležitostí - robia akýsi predvýber, ktorý predkladajú na doriešenie "ľudským" kolegom.

A tak umelá inteligencia môže rozhodovať o tom, či určitý človek dostane pôžičku, ponuku zamestnania, prípadne povolenie k určitej činnosti. Accenture sa preto v rámci aktivít zameraných na odstránenie zaujatosti k AI rozhodla vytvoriť nástroj, ktorý vyhodnocuje, či systémy AI rozhodujú spravodlivo a objektívne.

Umelá inteligencia sama o sebe nemôže byť spravodlivá alebo nespravodlivá - ide o to, že algoritmy, ktoré pre rozhodovanie využíva, môžu kodifikovať nesprávne ľudské chápanie. AI Fairness je určený na rýchlu identifikáciu a následnej pomoci pri riešení problémov v algoritmoch.

"Našim cieľom je sprístupniť tento nástroj spoločnostiam, ktoré chcú rozšíriť svoje používanie AI, ale obávajú sa rizík neúmyselných dopadov," hovorí Rumman Chowdhury, líder v oblasti umelej inteligencie spoločnosti Accenture. "V minulosti sme našli modely, ktoré sú celkovo veľmi presné, ale ak sa pozriete, ako sa určitá chyba rozkladá nad podskupinami, uvidíte obrovský rozdiel medzi tým, ako správny je určitý model napríklad pre bieleho muža v porovnaní s čiernou ženou."

Nástroj tiež hľadá premenné, ktoré súvisia s ďalšími citlivými premennými. Algoritmus by napríklad nemusel explicitne zohľadňovať pohlavie, ale ak sa pozrie na príjem, mohol by ľahko oddeliť výsledky pre ženy a mužov.

Vyšetruje tiež chybovosť pre každú premennú, a či sú chyby pri niektorej skupine vyššie. Po tejto analýze je nástroj schopný opraviť algoritmus, ale pretože tento typ korekcie môže spôsobiť zníženie jeho presnosti, navrhne riešenie a umožní užívateľovi rozhodnúť, nakoľko sa má zmeniť.

AI Fairness môže nájsť uplatnenie v rôznych, nielen priemyselných odvetviach, pričom sa predpokladá, že prvými používateľmi budú tí, ktorí sa nachádzajú v najviac regulovaných odboroch (napríklad finančných služieb a zdravotnej starostlivosti), kde je potenciál nežiaducich dopadov AI veľký.

"Vidíme rastúce zameranie na algoritmické skreslenie a spravodlivosť. Rad štátov vytvára etické rady AI, Google nedávno vydal svoje etické pokyny," konštatuje Chowdhury. "Takže si myslím, že lídri v odbore AI, rovnako ako non-tech spoločností, hľadajú cestu. Hľadajú štandardy a protokoly a niečo, čím sa môžu riadiť, pretože chcú vytvárať a využívať bezpečné produkty."

Zdroj: computerworld.cz.

Zobrazit Galériu
Autor: Redakcia

Nechajte si posielať prehľad najdôležitejších správ emailom

Mohlo by Vás zaujímať

Technológie

Halogénové žiarovky boli na Slovensku už definitívne vyradené z predaja, čo bude nasledovať?

25.09.2018 00:04

Prvý september 2018 predstavoval dôležitý míľnik pre domácnosti na Slovensku. V rámci celoeurópskej snahy o prechod na LED osvetlenie dôjde k vyradeniu halogénových žiaroviek. Týka sa to halogénových ...

Technológie

Decentralizovaný smart reproduktor? Volareo má integrované blockchainové služby

24.09.2018 00:25

Inteligentné reproduktory sa v poslednom čase tešia veľkej obľube. Všetky dostupné produkty sú však viazané na výrobcu a jeho obchodný model. Pri niektorých je táto väzba voľnejšia (Google Home), pri ...

Technológie

Významný pokrok v oblasti umelej inteligencie: Nová služba deteguje zaujatosť a vysvetľuje, ako sa UI rozhoduje

24.09.2018 00:20

Spoločnosť IBM predstavila technológiu, ktorá podnikom prináša novú transparentnosť v oblasti umelej inteligencie, čo im umožní naplno využiť jej silu. Softvérová služba, ktorá automaticky deteguje za ...

q

Žiadne komentáre

Vyhľadávanie

AGEM Dealers Day 2018

Najnovšie videá



PC forum button