Faktograf.hr

Samo činjenice

Pavuna obmanjuje pratitelje robotima i ubojstvom koje se nije dogodilo

Izvor: screenshot

“STRAVA ‘civilizacije’ darwinizma: AI kukci-dronovi ubijaju humanoide oko 0:50 i 2:45! Univ. Kalifornija poziva na svjetsku zabranu takvog oružja! Svima proslijedite … Hvala”, objavio je neobični znanstvenik Davor Pavuna na svojoj Facebook stranici uz video o filmu “Slaughterbots” i preplašio svoje pratitelje. Ne bez razloga, ali ipak na neistinit način.

Pratitelji Davora Pavune uglavnom ne shvaćaju ono što se vidi iz samog videa, podijeljenog preko 500 puta. A to je da ni jedan humanoid nije stradao prilikom snimanja ovoga filma. Naime, osim što se navodi da je film “Slaugterbots” dio kampanje objašnjene na stranici autonomousweapons.org, profesor Stuart Russel sa Sveučilišta Berkeley objašnjava da se radi o fikciji u svrhu mobilizacije javnosti i pokretanja javne rasprave o zaustavljanju korištenja umjetne inteligencije u ratne svrhe, konkretno autonomnog oružja.

Međutim, Pavuna to ni u jednom trenutku ne otkriva svojim pratiteljima, koji mahom vjeruju da je doista došlo do masovnog ubojstva studenata i drugih humanoida uz pomoć “roja” dronova. Oni rijetki, koji znaju o čemu se radi, uzalud su mu “lijepili” poveznice na IMDb.

Ti “rojevi” su još 2017. godine, kada je video nastao, bili mogući. Njihovo postojanje bilo je tek pitanje (prilično jeftine) integracije i militarizacije tehnologije koju već posjedujemo, kako je naveo profesor Russel u videu kampanje #bankillerrobots.

Od daljinskog upravljanja do robota ubojica

Snopes je u svojoj analizi fakcije i fikcije vezane za robote ubojice iz 2017. godine, pojasnio da postoje tri stupnja autonomije robota. Prva je da mašina treba ljudskog operatera da bi izvršila funkciju. Druga je da funkciju može izvršavati sama, ali da je ljudski operater može zaustaviti. A treća je ona bez operatera, koja se naziva i “robotom ubojicom” ili LAWS (od engleskog izraza lethal autonomous weapons systems): jednom pokrenuta, ona će identificirati mete i izvršavati napade bez ljudskog nadzora. Na pitanje upotrebljavaju li se sistemi ubojitog autonomnog oružja (LAWS) odgovorio s: “Da. Ne. Možda.”

Profesor Russel u svojoj zabrinutosti nipošto nije usamljen, pa i kada izuzmemo 4.500 znanstvenika s područja umjetne inteligencije i desetke tisuća iz drugih polja koji su se priključili ovoj kampanji.  Njihova stranica usmjerava korisnike na akciju Stop Killer Robots, koju je 2012. pokrenuo Human Rights Watch.

Nadalje, više od tisuću znanstvenika, uključujući zvijezde znanosti i tehnologije Stephena Hawkinga, Elona Musak i Stevea Wozniaka, 2015. godine je apeliralo na svjetsku zabranu korištenja autonomnog oružja.

Dva loša i vjerojatna scenarija s umjetnom inteligencijom

Nije problem ni u robotima, ni u “vlastitoj” inteligenciji računala, niti u vjerovanju da će AI postati zla.

Umjetna inteligencija zabrinjava zbog razilaženja u metodi ostvarivanja cilja i u razilaženju u ciljevima s ljudima. I da, mašine mogu imati ciljeve, ako su programirane da pucaju, primjerice, u toplu metu.

Dva vrlo vjerojatna scenarija objašnjavaju zašto je potreban veliki oprez. U jednom, AI je programirana da učini nešto dobro, ali razvije destruktivnu metodu da postigne cilj. Primjer je “poslušno” autonomno vozilo. Zamolite ga da vas doveze na neku lokaciju što je prije moguće, ono će izazvati kaos ispunjavajući taj cilj, a ljudske pokušaje da ga uspore ili zaustave moglo bi “shvatiti” kao prijetnju ostvarenju tog cilja.

U drugom, AI je programirana za razaranje, poput LAWS-a. Osim što može pasti u ruke krivim ljudima, ona vrlo vjerojatno i vrlo lako može počiniti masovno ubojstvo, baš kao u filmu “Slaughterbots”. Utrka u naoružanju ovoga tipa, kojeg se naziva i trećom generacijom oružja nakon baruta i nuklearnog arsenala, može dovesti upravo do rata AI oružjem. Ovo oružje bi po svemu sudeći bilo programirano da ga se vrlo teško može isključiti, kako to ne bi učinio percipirani neprijatelj, što bi značilo da i ljudi mogu vrlo lako izgubiti kontrolu u takvoj situaciji. Takav je rizik prisutan i kod umjetne inteligencije u svom vrlo ograničenom obliku, a raste upravo s razinom vještine AI-ja te razinom autonomije.

Najmoćnije članice UN-a protiv zabrane robota ubojica

Ali to nije pitanje samo nevladinih organizacija i istaknutih pojedinaca u poljima robotike i razvoja umjetne inteligencije. Deseci ne tako moćnih članica Ujedinjenih naroda zatražili su zabranu prepuštanja odluke o ubijanju ljudi robotima. Među njima je i Pakistan, gdje su od napada dronova – mašina isprva osmišljenih samo za nadzor – izginule tisuće ljudi. No, UN se bori s protivljenjem onih koji na svojoj strani imaju i moć i novac – Velika Britanija, Australija, Izrael, Rusija i SAD.

Iako se ne može pouzdano znati koliko nas vremena dijeli od trenutka kada će umjetna inteligencija nadrasti ljudsku, pa ni hoće li se to pouzdano dogoditi, danas smo, primjerice, puno bliže implementaciji 5G mreže, nego 2017. Ona bi trebala, uparena s umjetnom inteligencijom, dovesti do procvata oba tehnološka dostignuća. Slično je i s kvantnim računalima. Ovih dana Financial Times izvještava da je Googleovo kvantno računalo uspjelo izvesti kalkulaciju nemoguću i za najsnažniji konvencionalni kompjuter na svijetu, IBM-ov Summit. Odgovarajući na pitanje je li niz slučajnih brojeva stvarno slučajan, rezultat je “izbacilo” za tri minute i 20 sekundi, dok bi klasičan kompjuter istu operaciju uspio izvršiti za oko 10 tisuća godina.

U nastavku pogledajte cijeli film “Slaughterbots”.

Imate prijedloge, pohvale ili kritike? Uočili ste neku izjavu za koju vjerujete da bi je Faktograf trebao obraditi? Sumnjate u točnost viralnih objava na društvenim mrežama? Pišite nam na info@faktograf.hr ili nas kontaktirajte putem Twittera ili Facebooka.

Faktograf.hr koristi kolačiće za pružanje boljeg korisničkog iskustva i funkcionalnosti. Cookie postavke mogu se kontrolirati i konfigurirati u vašem web pregledniku. Nastavkom pregleda web stranice Faktograf.hr slažete se s korištenjem kolačića.