Pod povećalom

Kako se Hrvatska priprema za AI revoluciju?

Hrvatska je počela poduzimati korake u smjeru regulacije razvoja i korištenja AI tehnologije te kažnjavanja njenog zloupotrebljavanja. Međutim, ključne odluke o tome kako će izgledati budući suživot čovječanstva s umjetnom inteligencijom donosit će se negdje drugdje.
Foto: Alex Shuper/Unsplash+

“Ako ga bilo tko izgradi, svi umiru”.

Naslov je to nove knjige dvojice istraživača umjetne inteligencije s kalifornijskog Istraživačkog instituta za strojnu inteligenciju. Autori Eliezer Yudkowsky i Nate Soares tvrde da nije moguće izgraditi superinteligentni AI koji će biti pod ljudskom kontrolom.

Njihovi argumenti prilično su dobro razrađeni. Ističu da, iako ne možemo predvidjeti točan smjer i brzinu razvoja AI tehnologije, možemo pretpostaviti da ishod neće biti unaprjeđenje dobrobiti čovječanstva.

Proučavajući razvoj AI tehnologije dulje od dva desetljeća, Yudkowsky u knjizi identificira najveći podbačaj stručnjaka koji rade na ovoj tehnologiji: nisu uspjeli shvatiti kako inteligencija zapravo funkcionira, kako nastaje i razvija se. Najsuvremeniji AI modeli iznimno su sposobni u rješavanju različitih kompleksnih zadataka, ali njihovi tvorci nisu sposobni shvatiti kako točno rade pa stoga ne mogu ni predvidjeti kako će se AI modeli ponašati.

Već sada postoje slučajevi u kojima su veliki jezični modeli pokušavali prevariti i ucjenjivati svoje tvorce da bi ostvarili neke vlastite ciljeve [1, 2, 3, 4, 5]. Kako AI tehnologija bude napredovala, tako će postajati sve teže kontrolirati najnaprednije modele, tvrde Yudkowsky i Soares. Neće nam uopće biti jasno što AI radi ni zašto to radi.

Zašto se treba bojati AI-ja?

Inteligencija je, ističu Yudkowsky i Soares, supermoć koja je ljude učinila dominantnom vrstom na Zemlji. Možemo li doista očekivati da ćemo ostati dominantna vrsta ako se pojavi još inteligentniji oblik života?

Autori u svojoj knjizi iznose tezu da AI ima evolucijsku prednost pred ljudima. Ako doista razvijemo superinteligentni stroj, taj će se stroj moći neograničeno razmnožavati, kopirajući samog sebe i tako stvarajući nove AI-jeve koji će mu pomagati u ostvarenju zacrtanih ciljeva. Ljudima je teško shvatiti kako rade AI modeli koje su sami razvili; kako će moći shvatiti AI modele koji su nastali bez ikakvog ljudskog doprinosa?

AI modeli pritom ne moraju nužno biti zloćudno raspoloženi prema ljudima. Yudkowsky i Soares prave usporedbu s odnosom čovjeka prema drugim životinjskim vrstama: većina ljudi nema ništa protiv divljih životinja, ne žele im zlo niti ih pokušavaju namjerno istrijebiti, ali svejedno narušavaju njihova staništa pokušavajući ostvariti neke vlastite ciljeve, najčešće vezane uz stjecanje materijalnih resursa. Ne treba stoga pretpostavljati ni da će superinteligentni stroj u ostvarivanju svojih ciljeva imati pretjeranog obzira prema ljudima, smatraju Yudkowsky i Soares.

Jedini način da izbjegnemo AI apokalipsu, uvjereni su Yudkowsky i Soares, jest da zaustavimo razvoj ove tehnologije prije nego što bude prekasno. Sličan stav dijele i mnogi drugi AI stručnjaci. Umirovljeni znanstvenik Geoffrey Hinton, koji je zbog svog doprinosa u razvoju ove tehnologije zaradio nadimak “kum AI-ja”, također javno upozorava na rizike koji dolaze s ubrzanim razvojem ove tehnologije te savjetuje da bi trebali stisnuti kočnicu.

Ne govore to samo istraživači i znanstvenici. Ovo su riječi Sama Altmana, direktora OpenAI-ja, organizacije koja je stvorila ChatGPT: “Mislim da će AI najvjerojatnije na neki način dovesti do kraja svijeta. Ali u međuvremenu će zahvaljujući strojnom učenju nastati neke sjajne tvrtke”. Na egzistencijalnu opasnost upozoravali su i čelni ljudi Anthropica, tvrtke koja je razvila Claude, te Googleovog AI laboratorija DeepMind. Elon Musk, vlasnik tvrtke xAI, u više je navrata govorio da strahuje kako bi AI mogao izbrisati ljudsku vrstu s lica Zemlje.

Postoje, naravno, i AI optimisti, stručnjaci koji tvrde da su egzistencijalni strahovi prenapuhani i neutemeljeni. Obje strane slažu se da je u pitanju najmoćnija tehnologija koju su ljudi ikada razvili, ali optimistični tabor uvjeren je da će AI uvesti ljudsku vrstu u eru blagostanja. Međutim, nitko sa sigurnošću ne može reći koja je strana u pravu. Kako od AI apokalipse strahuje značajan dio ponajboljih svjetskih AI stručnjaka, tako se njihove riječi u međunarodnoj javnosti uzimaju ozbiljno.

Hrvatska i AI revolucija

Poneke države stoga razvijaju regulaciju koja bi trebala osigurati da se u razvoju i primjeni AI-ja ne zanemaruju sigurnosna pitanja. Tom temom se bavi i Europska unija, čiji bi se AI Act – od mnogih stručnjaka kritiziran kao nedovoljno ambiciozan – uskoro trebao početi primjenjivati. Istražili smo što hrvatske institucije rade da se pripreme za AI revoluciju.

Što će, dakle, Republika Hrvatska napraviti s umjetnom inteligencijom? Barem djelomičan odgovor na ovo pitanje trebao bi ponuditi Nacionalni plan za razvoj umjetne inteligencije za razdoblje do 2032. godine, s pripadajućim Akcijskim planom za razdoblje od 2026. do 2028. godine.

Na izradi ovih strateških dokumenata trenutačno je uposlena radna skupina koju je okupilo Ministarstvo pravosuđa, uprave i digitalne transformacije, a vodi je ​Ivan Lakoš, ravnatelj Uprave za razvoj digitalnog društva i strateško planiranje u ministarstvu Damira Habijana.

Oba bi dokumenta trebala biti gotova do kraja godine. Kako nam kažu iz Habijanovog ministarstva, Nacionalni bi plan trebao biti gotov do kraja listopada, nakon čega će se naći u javnom savjetovanju. Akcijski plan trebao bi biti izrađen do kraja prosinca 2025.

Radna je skupina, tvrde iz ministarstva, održala nekoliko sastanaka, a organizirane su i radionice/konzultacije o različitim temama. Među stvarima koje radna skupina razmatra su mogući načini korištenja AI-ja u Hrvatskoj, s posebnim naglaskom na potencijalu za unaprjeđenje javne uprave, pravosuđa, zdravstva, obrazovanja i gospodarstva te stvaranje poticajnog regulatornog i investicijskog okvira za razvoj AI alata u Hrvatskoj.

“Smatramo kako je zadnja domena izuzetno bitna, zbog čega je važno pronaći balans između inovacije, istraživanja i razvoja same umjetne inteligencije, kao i voditi računa o sigurnosti građana i njihovih podataka”, rekao je ministar Habijan najavljujući rad na ovim strateškim dokumentima.

Istovremeno, Vlada RH je u saborsku proceduru uputila prijedlog dopuna Kaznenog zakona, u koji se uvodi novo kazneno djelo: dovođenje u opasnost života i imovine sustavom umjetne inteligencije. Ako netko počini ubojstvo ili tešku tjelesnu ozljedu ili ozbiljnu imovinsku štetu, kažnjavat će se višegodišnjim zatvorom.

Drugim riječima, nešto se pomiče, ali ne naročito brzo. Hrvatske vlasti zasad se fokusiraju na stvaranje poticajnog okruženja za AI ekonomiju. Potencijalne opasnosti odnosno zlouporabe se promatra prvenstveno kroz regulativu za njihovo naknadno kažnjavanje te pokušaje da se zaštiti privatnost građana.

Problem s privatnošću

Ovaj drugi smjer mogao bi se pokazati prilično izazovnim zadatkom. Predsjednica Zaklade Signal, koja je izradila popularnu istoimenu aplikaciju za sigurno, enkriptirano komuniciranje, nedavno je u kolumni za The Economist upozorila da bi era AI agenata mogla označiti kraj privatnosti u digitalnom prostoru.

Alati poput ChatGPT-a ili Google Geminija se, naime, razvijaju s ciljem da za svoje korisnike obavljaju različite digitalne usluge, poput npr. rezervacije putovanja, kupovine hrane ili bilo kojih drugih usluga koje se mogu obavljati putem interneta. Da bi to mogli raditi, bit će im potreban pristup brojnim osobnim podacima korisnika, poput npr. onih o bankovnom računu.

“Iako još uvijek nismo dosegli potpuno ‘agentsku’ budućnost, štetne posljedice već su itekako vidljive. Istraživači su pokazali da se AI agente može navesti da otkriju osjetljive podatke kojima imaju pristup ili ih hakeri mogu prevariti da poduzmu štetne radnje – od izvlačenja povjerljivog koda do izazivanja kaosa u domovima aktiviranjem pametnih kućanskih uređaja”, piše Signalova predsjednica Meredith Whittaker.

Upozorava da se ovi agenti sve više integriraju u same operativne sustave računala i pametnih telefona, što im omogućuje pristup različitim korisničkim podacima, uključujući i one koji bi trebali biti enkriptirani. “Grubo rečeno, put kojim trenutačno idemo prema ‘agentskoj’ umjetnoj inteligenciji vodi ka ukidanju privatnosti i sigurnosti na razini aplikacija”, smatra Whittaker.

Prijavite se na F-zin, Faktografov newsletter

Prijava

Prijavom pristajete na Uvjete korištenja i Politiku privatnosti.

Tko će odlučivati?

Kad je prošle godine objavljen Globalni indeks za odgovoran AI, Hrvatska se našla među najlošije rangiranim državama Europe. Iza nas su Srbija, Sjeverna Makedonija, Gruzija, Crna Gora, Moldova, Albanija, Kosovo i Bjelorusija. Najbolje su pozicionirane razvijenije europske države: Nizozemska, Njemačka, Irska, Ujedinjeno Kraljevstvo. Sjedinjene Američke Države su na petom mjestu. Na ukupnoj listi Hrvatska je 49.

U pitanju je istraživanje koje mjeri u kojoj mjeri države doprinose odgovornom razvoju AI-ja, posebno u sferi očuvanja ljudskih prava. Ipak, jedna Hrvatska inicijativa u istraživanju je posebno pohvaljena, tj. istaknuta kao “svijetla točka”. U pitanju su izmjene Zakona o radu kojima je nametnuta obveza ljudskog nadzora u automatiziranom sustavu upravljanja radi zaštite sigurnosti i zdravlja radnika. Istim zakonskim izmjenama razrađena su i dodatna prava zaposlenika vezana za privatnost njihovih osobnih podataka.

Dodatni koraci koje hrvatske vlasti poduzimaju kako bi regulirale korištenje novih digitalnih tehnologija zasigurno će biti dovoljni da unaprijede hrvatski rejting u budućim izdanjima ovog indeksa. Međutim, ključne odluke o AI tehnologiji i njenom (sigurnom?) korištenju donosit će se izvan Hrvatske, a vjerojatno i Europe. Razvoj najsuvremenijih AI modela dominantno se događa negdje drugdje, prvenstveno u Sjedinjenim Američkim Državama i Kini. Njihovi će vlastodršci u predstojećim godinama donositi odluke koje će usmjeriti razvoj AI-ja i time značajno oblikovati budućnost koja nas sve čeka.

Propast ili blagostanje, ili ipak nešto između, pitanje je sad.

Facebook
WhatsApp

Uočili ste objavu na društvenim mrežama i želite da provjerimo je li točna? Želite nas upozoriti na netočnu ili manipulativnu izjavu političara? Imate prijedloge, pohvale ili kritike? Pišite nam na [email protected] ili nas kontaktirajte putem Twittera ili Facebooka.