Image
13.3.2019 0 Comments

Štúdia ukazuje potenciálne riziko autonómnych áut. Neidentifikujú chodcov s tmavou pleťou

Nová štúdia výskumníkov z Georgia Institute of Technology sa zamerala na veľký problém pri vývoji autonómnych vozidiel – predpojatosť algoritmov. Výsledky ukázali, že v prípade osoby s tmavšou pokožkou bude väčšia pravdepodobnosť, že ju autonómne auto zrazí. Je to preto, že robotické vozidlá môžu lepšie detegovať chodcov so svetlejšou pleťou.

Autori štúdie začali jednoduchou otázkou: S akou presnosťou môžu autonómne autá identifikovať rôzne objekty a detegovať ľudí z rôznych demografických skupín? Vedci analyzovali veľký súbor dát a výsledok bol taký, že detekcia ľudí s tmavou pokožkou bola v priemere o 5 percentuálnych bodov menej presná. Táto disparita pretrvávala aj vtedy, keď výskumníci upravili niektoré premenné, napríklad denný čas či príležitostné prekážky v pohľade na chodcov.

No správu treba brať trochu s rezervou. Výskumníci neotestovali všetky modely na detekciou objektov, ktoré v súčasnosti používajú autonómne vozidlá, a ani nepoužili tréningové dátové súbory, ktoré využívajú ich výrobcovia. Testovali len niekoľko modelov používaných akademickými výskumníkmi, ktoré boli vycvičené na verejne dostupných súboroch údajov. Zvolili tento postup preto, že spoločnosti im neposkytli na preskúmanie svoje dátové súbory.

Štúdia však prispela k rastúcemu počtu dôkazov o tom, že do automatizovaných rozhodovacích systémov môžu vniknúť ľudské predsudky. Nazýva sa to algoritmická predpojatosť (algorithmic bias). Jej najznámejší príklad pochádza z roku 2015, keď algoritmus Googlu na rozpoznávanie obrazu označil Afroameričanov ako „gorily“. Keďže algoritmické systémy sa učia z príkladov, ktorými sú „kŕmené“,ak nedostanú dostatok príkladov povedzme čiernych žien v štádiu výcviku, budú mať po nasadení problém pri ich rozpoznávaní. 

Jedným z navrhovaných riešení tohto problému je zabezpečiť, aby tímy vyvíjajúce nové technológie boli rasovo rôznorodé. Ak sú totiž všetci členovia tímu bieli muži, nemusí im napadnúť skontrolovať, ako ich algoritmus spracúva obrázky čiernych žien. Iné riešenie je prikázať, aby spoločnosti otestovali svoje algoritmy na predpojatosť a preukázali, že spĺňajú určité štandardy spravodlivosti, ešte pred tým, než ich budú ďalej rozvíjať.

Zdroj: vox.com.

Zobrazit Galériu
Autor: Redakcia

Nechajte si posielať prehľad najdôležitejších správ emailom

Mohlo by Vás zaujímať

Výskum 2

Nový bioreaktor dokáže pohltiť oxid uhličitý 400× rýchlejšie ako stromy

20.09.2019 00:10

Už od začiatku 19. storočia je známe, že skleníkové plyny, najmä CO2, v atmosfére zadržiavajú teplo a spôsobujú efekt, ktorý dnes poznáme ako globálne otepľovanie. CO2 vzniká pri spaľovaní palív, ako ...

Výskum 1

Toaletná doska zmonitoruje váš zdravotný stav a zachráni život

18.09.2019 00:05

Amerika rýchlo starne. Napriek lekárskemu pokroku trpí viac ako 80% obyvateľov na určitú formu srdcových ochorení, ako napríklad infarkt alebo zlyhanie srdca. Aj napriek včasnej hospitalizácii, takme ...

Výskum 2

Objavili „najčernejší“ materiál. Odráža 10x menej svetla ako Vantablack

17.09.2019 00:20

Inžinieri z MIT informovali, že vytvorili materiál, ktorý je 10-krát černejší ako čokoľvek, čo bolo zhotovené doteraz. Materiál je vyrobený z vertikálne zarovnaných uhlíkových nanorúrok (CNT - carbon ...

q

Žiadne komentáre

Vyhľadávanie

AMCHAM 2019

Najnovšie videá

elearn

IT GALA stvorec 2019