Image
13.3.2019 0 Comments

Štúdia ukazuje potenciálne riziko autonómnych áut. Neidentifikujú chodcov s tmavou pleťou

Nová štúdia výskumníkov z Georgia Institute of Technology sa zamerala na veľký problém pri vývoji autonómnych vozidiel – predpojatosť algoritmov. Výsledky ukázali, že v prípade osoby s tmavšou pokožkou bude väčšia pravdepodobnosť, že ju autonómne auto zrazí. Je to preto, že robotické vozidlá môžu lepšie detegovať chodcov so svetlejšou pleťou.

Autori štúdie začali jednoduchou otázkou: S akou presnosťou môžu autonómne autá identifikovať rôzne objekty a detegovať ľudí z rôznych demografických skupín? Vedci analyzovali veľký súbor dát a výsledok bol taký, že detekcia ľudí s tmavou pokožkou bola v priemere o 5 percentuálnych bodov menej presná. Táto disparita pretrvávala aj vtedy, keď výskumníci upravili niektoré premenné, napríklad denný čas či príležitostné prekážky v pohľade na chodcov.

No správu treba brať trochu s rezervou. Výskumníci neotestovali všetky modely na detekciou objektov, ktoré v súčasnosti používajú autonómne vozidlá, a ani nepoužili tréningové dátové súbory, ktoré využívajú ich výrobcovia. Testovali len niekoľko modelov používaných akademickými výskumníkmi, ktoré boli vycvičené na verejne dostupných súboroch údajov. Zvolili tento postup preto, že spoločnosti im neposkytli na preskúmanie svoje dátové súbory.

Štúdia však prispela k rastúcemu počtu dôkazov o tom, že do automatizovaných rozhodovacích systémov môžu vniknúť ľudské predsudky. Nazýva sa to algoritmická predpojatosť (algorithmic bias). Jej najznámejší príklad pochádza z roku 2015, keď algoritmus Googlu na rozpoznávanie obrazu označil Afroameričanov ako „gorily“. Keďže algoritmické systémy sa učia z príkladov, ktorými sú „kŕmené“,ak nedostanú dostatok príkladov povedzme čiernych žien v štádiu výcviku, budú mať po nasadení problém pri ich rozpoznávaní. 

Jedným z navrhovaných riešení tohto problému je zabezpečiť, aby tímy vyvíjajúce nové technológie boli rasovo rôznorodé. Ak sú totiž všetci členovia tímu bieli muži, nemusí im napadnúť skontrolovať, ako ich algoritmus spracúva obrázky čiernych žien. Iné riešenie je prikázať, aby spoločnosti otestovali svoje algoritmy na predpojatosť a preukázali, že spĺňajú určité štandardy spravodlivosti, ešte pred tým, než ich budú ďalej rozvíjať.

Zdroj: vox.com.

Zobrazit Galériu
Autor: Redakcia

Nechajte si posielať prehľad najdôležitejších správ emailom

Mohlo by Vás zaujímať

Výskum 1

Budeme využívať na medzihviezdne lety „gravitačné praky“?

18.03.2019 00:25

Napriek veľkým úspechom, ktoré dosiahlo ľudstvo pri objavovaní vesmíru, cesta k vzdialeným hviezdam zostáva len snom. Navrhnutých bolo už viacero teoretických konceptov, no náklady, trvanie cesty a po ...

Výskum

Vedci priniesli nové dôkazy o tom, že zvuk má skutočne hmotnosť

18.03.2019 00:15

Keď je reč o zvukových vlnách, predstavujeme si neviditeľné vibrácie, ktoré nemajú žiadnu hmotnosť. To by sa teraz mohlo zmeniť. Fyzici totiž poskytli ďalšie dôkazy o tom, že častice zvuku skutočne mô ...

Výskum 6

Vedci upozorňujú, že Apple AirPods a ďalšie bezdrôtové slúchadlá môžu mať spojitosť s rakovinou

14.03.2019 00:20

Viac ako 250 vedcov sa podpísalo pod petíciu vyzývajúcu Organizáciu Spojených národov a Svetovú zdravotnícku organizáciu, aby vypracovali prísnejšie usmernenia týkajúce sa potenciálneho rizika rakovin ...

q

Žiadne komentáre

Vyhľadávanie

SWIFT 5_032019

Najnovšie videá

eFocus 2019


PC forum button