Image
13.3.2019 0 Comments

Štúdia ukazuje potenciálne riziko autonómnych áut. Neidentifikujú chodcov s tmavou pleťou

Nová štúdia výskumníkov z Georgia Institute of Technology sa zamerala na veľký problém pri vývoji autonómnych vozidiel – predpojatosť algoritmov. Výsledky ukázali, že v prípade osoby s tmavšou pokožkou bude väčšia pravdepodobnosť, že ju autonómne auto zrazí. Je to preto, že robotické vozidlá môžu lepšie detegovať chodcov so svetlejšou pleťou.

Autori štúdie začali jednoduchou otázkou: S akou presnosťou môžu autonómne autá identifikovať rôzne objekty a detegovať ľudí z rôznych demografických skupín? Vedci analyzovali veľký súbor dát a výsledok bol taký, že detekcia ľudí s tmavou pokožkou bola v priemere o 5 percentuálnych bodov menej presná. Táto disparita pretrvávala aj vtedy, keď výskumníci upravili niektoré premenné, napríklad denný čas či príležitostné prekážky v pohľade na chodcov.

No správu treba brať trochu s rezervou. Výskumníci neotestovali všetky modely na detekciou objektov, ktoré v súčasnosti používajú autonómne vozidlá, a ani nepoužili tréningové dátové súbory, ktoré využívajú ich výrobcovia. Testovali len niekoľko modelov používaných akademickými výskumníkmi, ktoré boli vycvičené na verejne dostupných súboroch údajov. Zvolili tento postup preto, že spoločnosti im neposkytli na preskúmanie svoje dátové súbory.

Štúdia však prispela k rastúcemu počtu dôkazov o tom, že do automatizovaných rozhodovacích systémov môžu vniknúť ľudské predsudky. Nazýva sa to algoritmická predpojatosť (algorithmic bias). Jej najznámejší príklad pochádza z roku 2015, keď algoritmus Googlu na rozpoznávanie obrazu označil Afroameričanov ako „gorily“. Keďže algoritmické systémy sa učia z príkladov, ktorými sú „kŕmené“,ak nedostanú dostatok príkladov povedzme čiernych žien v štádiu výcviku, budú mať po nasadení problém pri ich rozpoznávaní. 

Jedným z navrhovaných riešení tohto problému je zabezpečiť, aby tímy vyvíjajúce nové technológie boli rasovo rôznorodé. Ak sú totiž všetci členovia tímu bieli muži, nemusí im napadnúť skontrolovať, ako ich algoritmus spracúva obrázky čiernych žien. Iné riešenie je prikázať, aby spoločnosti otestovali svoje algoritmy na predpojatosť a preukázali, že spĺňajú určité štandardy spravodlivosti, ešte pred tým, než ich budú ďalej rozvíjať.

Zdroj: vox.com.

Zobrazit Galériu
Autor: Redakcia

Nechajte si posielať prehľad najdôležitejších správ emailom

Mohlo by Vás zaujímať

Výskum

Prelom vo využívaní slnečnej energie môžu priniesť perovskitové solárne články

17.05.2019 00:25

Žiadny solárny materiál zatiaľ nedokázal nahradiť kremík. Kremíkové články majú na trhu podiel 95 %, pričom najefektívnejšie z nich dosahujú účinnosť menej ako 23 %. Zmenu by mohli priniesť perovskity ...

Výskum

Nové biolepidlo utesní krvácajúcu ranu na bijúcom srdci za 20 sekúnd

17.05.2019 00:15

Čínski výskumníci vyvinuli nové „biologické lepidlo“, ktoré by mohlo zastaviť nekontrolovateľné krvácanie zo srdca či tepny. Ak sa umiestni do rany a aktivuje UV svetlom, tento život zachraňujúci tmel ...

Výskum

NASA pracuje na elektrických lietadlách poháňaných kryogénnym vodíkom

17.05.2019 00:10

Pretrvávajúca závislosť leteckého priemyslu od fosílnych palív znamená, že letecká doprava naďalej významne prispieva k celosvetovým emisiám skleníkových plynov. Vedci z Illinoiskej univerzity v Urban ...

q

Žiadne komentáre

Vyhľadávanie

ITAPA 2019

Najnovšie videá

Cyber Central Malware Analysis Training


PC forum button