Image
13.3.2019 0 Comments

Štúdia ukazuje potenciálne riziko autonómnych áut. Neidentifikujú chodcov s tmavou pleťou

Nová štúdia výskumníkov z Georgia Institute of Technology sa zamerala na veľký problém pri vývoji autonómnych vozidiel – predpojatosť algoritmov. Výsledky ukázali, že v prípade osoby s tmavšou pokožkou bude väčšia pravdepodobnosť, že ju autonómne auto zrazí. Je to preto, že robotické vozidlá môžu lepšie detegovať chodcov so svetlejšou pleťou.

Autori štúdie začali jednoduchou otázkou: S akou presnosťou môžu autonómne autá identifikovať rôzne objekty a detegovať ľudí z rôznych demografických skupín? Vedci analyzovali veľký súbor dát a výsledok bol taký, že detekcia ľudí s tmavou pokožkou bola v priemere o 5 percentuálnych bodov menej presná. Táto disparita pretrvávala aj vtedy, keď výskumníci upravili niektoré premenné, napríklad denný čas či príležitostné prekážky v pohľade na chodcov.

No správu treba brať trochu s rezervou. Výskumníci neotestovali všetky modely na detekciou objektov, ktoré v súčasnosti používajú autonómne vozidlá, a ani nepoužili tréningové dátové súbory, ktoré využívajú ich výrobcovia. Testovali len niekoľko modelov používaných akademickými výskumníkmi, ktoré boli vycvičené na verejne dostupných súboroch údajov. Zvolili tento postup preto, že spoločnosti im neposkytli na preskúmanie svoje dátové súbory.

Štúdia však prispela k rastúcemu počtu dôkazov o tom, že do automatizovaných rozhodovacích systémov môžu vniknúť ľudské predsudky. Nazýva sa to algoritmická predpojatosť (algorithmic bias). Jej najznámejší príklad pochádza z roku 2015, keď algoritmus Googlu na rozpoznávanie obrazu označil Afroameričanov ako „gorily“. Keďže algoritmické systémy sa učia z príkladov, ktorými sú „kŕmené“,ak nedostanú dostatok príkladov povedzme čiernych žien v štádiu výcviku, budú mať po nasadení problém pri ich rozpoznávaní. 

Jedným z navrhovaných riešení tohto problému je zabezpečiť, aby tímy vyvíjajúce nové technológie boli rasovo rôznorodé. Ak sú totiž všetci členovia tímu bieli muži, nemusí im napadnúť skontrolovať, ako ich algoritmus spracúva obrázky čiernych žien. Iné riešenie je prikázať, aby spoločnosti otestovali svoje algoritmy na predpojatosť a preukázali, že spĺňajú určité štandardy spravodlivosti, ešte pred tým, než ich budú ďalej rozvíjať.

Zdroj: vox.com.

Zobrazit Galériu
Autor: Redakcia

Nechajte si posielať prehľad najdôležitejších správ emailom

Mohlo by Vás zaujímať

Výskum

Video: Virálna prehliadka robotov spoločnosti Boston Dynamics

20.11.2019 00:00

Boston Dynamics je jedna z najznámejších robotických spoločností najmä vďaka virálnym videám o svojich robotoch v akcii. Medzi roboty, na ktoré sa zameriava v súčasnosti, patria Spot, Handle a Atlas. ...

Výskum

Nový materiál prelomil rekord v premene tepla na elektrinu

19.11.2019 00:10

Termoelektrické materiály menia teplo na elektrickú energiu. Množstvo energie, ktoré sa dá vygenerovať, sa meria hodnotou označovanou ZT. Doteraz najlepšie termoelektrické materiály mali ZT okolo 2,5 ...

Výskum

Žeby adamantium? Nová lesklá a magnetická forma čistého uhlíka oslňuje svojím potenciálom

14.11.2019 00:15

Vedci hovoria, že „šťastná náhoda“ priniesla novú, stabilnú formu čistého uhlíka vyrobenú z lacných surovín. Podobne ako diamant či grafén má tento materiál mimoriadne fyzikálne vlastnosti. Je tvrdší ...

Žiadne komentáre

Vyhľadávanie

ACER_122019

Najnovšie videá