Image
29.4.2015 0 Comments

Nekontrolovaný vývoj umelej inteligencie môže byť horší ako jadrová vojna

Jaan Tallinn, spoluzakladateľ spoločnosti Skype, verí, že súčasný prístup k vývoju umelej inteligencie (AI) sa výrazne líši od toho, aký tu bol v minulosti.Jaan Tallinn, spoluzakladateľ spoločnosti Skype, verí, že súčasný prístup k vývoju umelej inteligencie (AI) sa výrazne líši od toho, aký tu bol v minulosti. Zatiaľ vraj nie sú potrebné nejaké regulácie, vylúčené to však nie je.

Východoeurópsky podnikateľ Jaan Tallinn, ktorý úzko spolupracuje s niekoľkými firmami zaoberajúcimi sa vývojom umelej inteligencie a nezávislými výskumníkmi cez Future of Life Institute (FLI), ktorý nedávno podporili Elon Musk alebo Stephen Hawking, tvrdí, že za problémami s rozvojom umelej inteligencie stojí tak ako v mnohých iných oblastiach financovanie. Pokiaľ totiž firma prišla s nejakou pokrokovou technológiou, získala od investorov dostatok finančných prostriedkov, ale postupom času finančné zdroje vyschli.

„Súčasný prístup k vývoju AI je však iný," uviedol Tallinn minulý týždeň v Londýne na konferencii, kde predstavoval novú IM aplikáciu Fleep, ktorú vytvoril spolu so svojím kolegom zo Skypu Henne Ruukelem.

umela_inteligencia2.png

Vyjadrenie Tallinna prichádza v čase, keď panujú čoraz väčšie obavy z toho, že stroje raz nahradia ľudí tak na pracovnom trhu, ako aj v iných oblastiach nášho života. Tallinn uviedol, že prostredníctvom Future of Life chce spojiť fyzikov a filozofmi, ktorí sa obávajú toho, čo sa stane v dlhom období, keď ľudia „stratia kontrolu nad atómami", spolu s technickými spoločnosťami, ktoré sa zameriavajú na kratšie obdobie a snažia sa vymyslieť spôsoby, ako by stroje ľuďom mohli viac pomáhať.

Pred bezhlavým vývojom AI varuje otvorený list, ktorý v januári zverejnili predstavitelia Future of Life Institute. Podľa neho musia experti bezpečne a opatrne koordinovať a komunikovať pokrok v oblasti AI tak, aby bolo zaručené, že bude stále pod kontrolou ľudí.

„Umelá inteligencia má veľký potenciál, treba sa však vyhnúť možným rizikám," stojí v liste. „Naše systémy umelej inteligencie musia robiť iba to, čo chceme my." List podpísali aj experti z veľkých technologických spoločností ako IBM, Google, Microsoft alebo Amazon.

Pred nekontrolovaným vývojom AI, ktorý „môže byť nebezpečnejší ako jadrové zbrane", už skôr varoval spoluzakladateľ spoločností SpaceX a Tesla Elon Musk, ktorý je spolu s hercom Morganom Freemanom a vedcom Stephenom Hawkingom členom poradného výboru FLI. Musk tiež prisľúbil venovať 10 miliónov dolárov na výskum vývoja AI vo FLI.
Na druhej strane je podľa Tallinna ešte priskoro na to, aby vznikli nejaké pravidlá alebo regulácie týkajúce sa AI. „Myslím si, že je príliš skoro na vytváranie konkrétnych monitorovacích mechanizmov," uviedol Tallinn. „Oveľa dôležitejšie je teraz dosiahnuť v celom priemysle a akademickom svete (ohľadom ďalšieho vývoja AI) jasný konsenzus."

Zdroj: ComputerWorld


Nechajte si posielať prehľad najdôležitejších správ emailom

Mohlo by Vás zaujímať

Technológie

Video: Robot Atlas už prejde po členitom teréne bez toho, aby ho dopredu poznal

02.12.2016 11:58

Známy výrobca robotov Boston Dynamics vydal najnovšiu verziu dvojnohého robota Atlas začiatkom roka. Teraz ho v spolupráci s Florida Institute for Human & Machine Cognition (IMHC) ďalej zlepšil. N ...

Technológie

V Indii dali do prevádzky najväčšiu solárnu elektráreň na svete s výkonom 648 MW

02.12.2016 00:16

Po ôsmich mesiacoch výstavby spustili do prevádzky solárnu elektráreň v indickom Kamuthi (v štáte Tamilnádu), ktorá sa stala najväčšou na svete a na prvej priečke rebríčka nahradila kalifornskú elektr ...

Technológie

Japonská neurónová sieť vie vyfarbiť čiernobiele obrázky. Vyskúšajte si to

01.12.2016 00:16

Máte čiernobiele fotografie, no radi by ste z nich urobili farebné? Pomôcť vám môže šikovný nástroj založený na neurónovej sieti, ktorý vytvorili japonskí akademici z tokijskej Waseda University. Nás ...

Žiadne komentáre

Vyhľadávanie

Kyocera - prve-zariadenia-formatu-a4-s-vykonom-a3

Najnovšie videá