Komentár: Ak sa chceme chrániť pred rizikami pokročilej umelej inteligencie, musíme konať už teraz

Technológie
4

Umelá inteligencia môže hrať šach, riadiť auto a diagnostikovať lekárske problémy. Takýto typ umelej inteligencie sa nazýva úzka umelá inteligencia (ANI – Artificial Narrow Intelligence). Ide o systém, ktorý môže vykonávať špecifickú úlohu. Používanie ANI rýchlo rastie a už sa objavili aj prvé problémy. Autonómne vozidlo v marci minulého roka smrteľne zranilo chodca. S ďalšou generáciou AI môžu problémy pribudnúť.

Všeobecná umelá inteligencia (Artificial General Intelligence – AGI) bude mať pokročilé výpočtové schopnosti a inteligenciu na úrovni ľudskej. Dôležité je, že miera zlepšovania môže byť exponenciálna a môže sa stať oveľa pokročilejšou ako jej ľudskí tvorcovia. Zavedenie AGI by mohlo rýchlo viesť k vzniku umelej superinteligencie (Artificial Super Intelligence – ASI).

Plnofunkčné systémy AGI zatiaľ neexistujú, no očakáva sa, že sa môžu objaviť kedykoľvek medzi rokom 2029 a koncom storočia. Je však takmer isté, že napokon prídu. A ak sa tak stane, existuje veľká a prirodzená obava, že ich nebudeme môcť kontrolovať.

Nie je pochýb o tom, že systémy AGI by mohli transformovať ľudstvo. Mohli by sa aplikovať na liečenie chorôb, riešenie zložitých globálnych problémov, ako je zmena klímy a potravinová bezpečnosť, a iniciovanie celosvetového technologického rozmachu. No neschopnosť ovládať ich by mohla mať katastrofické následky.

Napriek tomu, čo nám predkladajú hollywoodske filmy, nie je pravdepodobné, že pôjde o zabijacké roboty. Problém nepredstavuje zlomyseľnosť robotov, ale skôr ich inteligencia. Riziká vyplynú zo skutočnosti, že superinteligentné systémy môžu identifikovať efektívnejšie spôsoby, ako robiť veci, vypracovať si vlastné stratégie na dosiahnutie cieľov a dokonca si určiť vlastné ciele.

Niekoľko príkladov:
- Systém AGI, ktorého úlohou je prevencia HIV, sa rozhodne odstrániť problém tým, že zabije každého, kto je nositeľom tejto choroby, alebo systém, ktorý má úlohu liečiť rakovinu, sa rozhodne zabiť každého, kto má nejakú genetickú predispozíciu.
- Autonómny vojenský dron AGI rozhodne, že jediný spôsob, ako zabezpečiť zničenie nepriateľského cieľa, je zničiť celé spoločenstvo.
- AGI na ochranu životného prostredia rozhodne, že jediný spôsob spomalenia alebo zvrátenia zmeny klímy je odstrániť technológie a ľudí, ktorí ich zavádzajú.

Tieto scenáre evokujú hrozivú predstavu rozličných systémov AGI, ktoré navzájom bojujú, pričom žiadny z nich nepovažuje za svoju prioritu záujmy ľudí. Existujú rôzne dystopické obrazy budúcnosti, podľa ktorých ľudia nakoniec zastarajú a následne ľudská rasa zanikne. Iné hovoria o síce menej extrémnom, ale aj tak významnom probléme zneužitia AGI na teroristické a kybernetické útoky. A napokon je tu ešte hrozba vytláčania ľudí z pracovných pozícií a masového dohľadu.

Preto je veľmi dôležité hľadať najbezpečnejšie spôsoby, ako navrhovať a spravovať systémy AGI s cieľom minimalizovať riziká a maximalizovať prínosy.

Kontrolovať AGI nie je také jednoduché ako udržať pod kontrolou ľudí. Súčasné formy kontroly nestačia. Preto je žiaduce vyvinúť a otestovať tri druhy kontroly:
- Kontrolu, ktorá zabezpečí, aby dizajnéri a vývojári AGI tvorili bezpečné systémy AGI
- Kontrolu, ktorá bude dohliadať na to, aby sa do AGI integrovali záležitosti, ako je „zdravý rozum“, morálka, rozhodovacie pravidlá a pod.
- Kontrolu, ktorú treba pridať do širších systémov, v ktorých bude AGI fungovať (riadenie, štandardné prevádzkové postupy, monitorovacie systémy a infraštruktúra)

Najbližšie desaťročie predstavuje kritické obdobie. Budeme mať príležitosť vytvoriť bezpečné a efektívne systémy AGI, ktoré môžu priniesť ďalekosiahle výhody pre spoločnosť a ľudstvo. No v biznise zvyčajný prístup nasadzovať pokročilé technológie za každú cenu môže viesť k ohrozeniu ľudskej rasy. Lopta je zatiaľ na našej strane ihriska, ale nebude tam už dlho.

Zdroj: theconversation.com.

Redakcia

Všetky autorove články
umelá inteligencia AI ochrana bezpečnosť stroj robot buducnost clovek mozog

4 komentáre

Nadpis a obsah ... reakcia na: Komentár: Ak sa chceme chrániť pred rizikami pokročilej umelej inteligencie, musíme konať už teraz

6.3.2019 12:03
... sa nejak nestrafili. O konani som sa nedocital nic ....

no darmo, najlepsie riesenie numusi byt nahumannejsie reakcia na: Komentár: Ak sa chceme chrániť pred rizikami pokročilej umelej inteligencie, musíme konať už teraz

4.3.2019 08:03
No darmo, najlepsie riesenie numusi byt to nahumannejsie (prave naopak).
Ked sa oprostime od emocii a keby sme si predstavili celu zem ako mravciu farmu tak co by ste urobili s takto zle rozbehnutou farmou (kupt novu = kolonizovat nove svety neberiem ako realnu moznost)?
No ja osobne by som ju rozobral vycistil a vratil naspat tak 1/10 mravcekov aby sa netlacili a mali zase na par generacii blahobyt a miesto na rast.
Thanos mal pravdu :)

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať