Pod povećalom

Izbori se približavaju, a AI dezinformacije postaju sve uvjerljivije

Uskoro ćemo nailaziti na deepfake sadržaj koji neće imati tehničke nedostatke temeljem kojih bi mogao biti prokazan kao neautentičan.
ilustracija: Jordi Ilić/Faktograf.hr

Hrvatski korisnici društvenih mreža već mjesecima su izloženi sintetskim video i audio dezinformacijama, generiranih pomoću različitih alata umjetne inteligencije (AI).

Za sada se takve dezinformacije koriste primarno u svrhu pokušaja prevare, za krađu osobnih podataka hrvatskih građana, uključujući i podatke o bankovnim karticama.

Nažalost, izgledno je da neće ostati na tome.

U narednih godinu i pol dana hrvatski će birači čak četiri puta imati priliku izaći na izbore. Tijekom 2024. i 2025. godine održavaju se europski, parlamentarni, predsjednički i lokalni izbori.

Posljednji put na birališta su Hrvati izlazili 2021. godine. Tada smo, uoči izbora za gradonačelnika Zagreba, svjedočili najvećoj digitalnoj dezinformacijskoj kampanji u hrvatskoj političkoj povijesti. Vodio ju je Domovinski pokret protiv Tomislava Tomaševića. Za taj su prljavi posao angažirali agenciju McElit, u vlasništvu braće Hrvoja i Marija Macana (ujedno i vlasnika portala Priznajem.hr, koji je ranije učestalo objavljivao dezinformacije).

Braća Macan najpoznatiji su hrvatski trgovci dezinformacijama. Uz Domovinski pokret, njihove usluge je koristio i Most, za koji su u predizborne svrhe pokrenuli mrežu lažnih lokalnih medija putem kojih su provodili i objavljivali “ankete” koje su pokazivale rast Mostovog rejtinga među biračima. Na isti način, pomoću lažiranih anketa (1, 2), promovirali su kandidaturu Miroslava Škore, tadašnjeg lidera Domovinskog pokreta, za gradonačelnika Zagreba.

Za očekivati je da će prisutnost digitalnih dezinformacija u predizbornim kampanjama u budućnosti samo rasti te da će alati generativne umjetne inteligencije dodatno olakšati kreiranje i vođenje dezinformacijskih kampanja. Stoga ćemo u nastavku ovog članka proanalizirati primjere AI generiranih dezinformacija s kojima se Faktograf već susreo i pokušati predvidjeti kakav bi utjecaj AI generirane dezinformacije mogle imati u predstojećim predizbornim kampanjama.

Prijavite se na F-zin, Faktografov newsletter

Prijava

Prijavom pristajete na Uvjete korištenja i Politiku privatnosti.

Kako je deepfake stigao u Hrvatsku

Koncem rujna 2023. godine, pred tisućama hrvatskih korisnika Facebooka ukazao se video zapis u kojem ih ministar zdravstva Vili Beroš nagovara na kupnju sumnjivog lijeka protiv bolova u zglobovima.

Bilo je očito da se radi o prevari. Autentični video zapis Beroševog obraćanja javnosti kombiniran je s umjetno generiranim zvučnim zapisom. Kako pokreti usana govornika nisu bili usklađeni sa zvukom, bilo je lako prepoznati da u pitanju nije stvarna Beroševa izjava. Međutim, boja i ton glasa u lažiranom zapisu zvučali su vrlo uvjerljivo.

Govor ministra zdravstva računalno je generiran, korištenjem AI alata za kreiranje zvučnih zapisa. Neki su takvi alati besplatno dostupni korisnicima interneta.

U narednim mjesecima identična prevara se služila identitetima drugih javnih ličnosti. Umjetno su generirani zapisi audio izjava Ivana Đikića (1, 2), Zorana Šprajca, Nine Kljenak, Luke Modrića, Igora Bobića i Zorana Milanovića.

Primjetno je da su u pitanju javne osobe koje se često pojavljuju pred televizijskim kamerama: novinari Šprajc, Kljenak i Bobić, nogometaš Modrić, znanstvenik Đikić te političari Beroš i Milanović. Da bi kreirali uvjerljivu sintetsku kopiju nečijeg glasa ili stasa, AI alatima je potreban materijal iz kojeg mogu učiti.

Drugim riječima, AI alate najprije je potrebno “nahraniti” postojećim autentičnim snimkama osoba čiji se identitet koristi za promoviranje dezinformacija i prevara, zbog čega prevaranti i propagandisti nužno posežu za snimkama koje su im lako dostupne (npr. na YouTubeu i sličnim servisima). Takvi sintetički video i audio sadržaji koji se koriste za promoviranje dezinformacija nazivaju se deepfake.

Isprva su prevaranti koristili samo AI alate za kloniranje glasa. Spomenuti pokušaji prevare stoga su isprva izgledali gotovo identično; preko autentične snimke puštan je umjetno kreirani audio zapis s vjernom imitacijom tona i boje glasa.

Međutim, kako je vrijeme odmicalo, prevaranti su se učili novim metodama. U AI generiranim snimkama novinara Bobića i predsjednika Milanovića korištena je tehnologija za sintetizaciju ne samo zvuka, nego i slike. Rezultat su nešto uvjerljiviji video zapisi, u kojima pokreti usana govornika doista prate ono što se izgovara. Činjenicu da se radi o pokušaju deepfakea, međutim, u tim snimkama otkriva loša kvaliteta zvuka; sintetizirani glasovi Bobića i Milanovića zvuče slično originalu, ali ne i autentično.

Nažalost, za očekivati je da će i taj problem uskoro biti nadvladan. Razvoj AI alata napreduje velikom brzinom, a i većina postojećih alata postaju sve bolji imitatori stvarnih osoba, kako obrađuju veću količinu autentičnih snimki na kojima se te osobe nalaze. Uskoro ćemo vjerojatno početi nailaziti na deepfake sadržaj koji neće imati tehničke nedostatke temeljem kojih bi mogao lako biti prokazan kao neautentičan.

Primjeri iz inozemstva

Da bi zamislili kako se AI generirane dezinformacije mogu koristiti u predizbornim kampanjama, dovoljno je usmjeriti pogled prema inozemstvu.

Prva izborna kampanja u kojoj je vrlo zapaženu ulogu imala jedna deepfake snimka, dakle multimedijalna dezinformacija kreirana uz pomoć AI alata, odigrala se prošle godine u Slovačkoj.

Tik pred izbore, u periodu predizborne šutnje, društvenim mrežama počela se širiti šokantna audio snimka. Političar Michal Šimečka i novinarka Monika Tódová ulovljeni su u razgovoru o tome kako namjeravaju namjestiti izborni rezultat kupovinom glasova pripadnika romske manjine.

Vrlo brzo je ustanovljeno da je u pitanju laž, ali tajming puštanja te snimke u javni prostor, tj. njeno plasiranje na društvene mreže netom pred dan izbora, značilo je kako postoji velika šansa da će do mnogih birača prije izlaska na birališta doći samo dezinformacija, ali ne i njen ispravak.

Slična se snimka otprilike u isto vrijeme proširila i u Ujedinjenom Kraljevstvu. Tamo se na meti našao vođa laburista Keir Starmer. Njegov glas je kloniran da bi se napravila audio snimka na kojoj psuje i vrijeđa svoje suradnike.

Postoje već i primjeri korištenja AI alata za masovno kreiranje i distribuciju sintetičkog dezinformacijskog i propagandnog sadržaja.

Australski institut za političku strategiju nedavno je objavio izvještaj u kojem su opisali jednu takvu propagandnu kampanju. Pronašli su mrežu od 30 kanala koji su na YouTube postavili više od 4 500 video zapisa u kojima se glorificira Kina, a napadaju Sjedinjene Američke Države. Ukupno su skupili oko 120 milijuna pregleda. Dobar dio sadržaja je sintetički, kreiran korištenjem AI alata.

U Venezueli se AI alati, pak, koriste za kreiranje lažnih televizijskih novinara, koji onda u eter odašilju dezinformacije u kojima veličaju kontroverznog predsjednika Venezuele Nicolása Madura. Snimke su uklonjene s YouTubea jer je prepoznato da se radi o AI generiranim dezinformacijama, ali su zato bez problema emitirane na tamošnjoj javnoj televiziji.

“Zabrinutost zbog utjecaja [AI alata] na izborne procese je sve do ove godine bila prenapuhana. A onda su se stvari počele događati brzinom za koju mislim da je nitko nije očekivao”, rekao je Henry Ajder, stručnjak za AI tehnologiju, novinarima lista Financial Times.

Nisu samo dezinformacije

AI alati u predizbornim kampanjama ne moraju biti korišteni isključivo za kreiranje dezinformacija. Političari ih mogu upotrebljavati i u druge propagandne svrhe, koje same po sebi možda ne predstavljaju sredstvo za obmanu birača, ali i dalje su etički vrlo dvojbene.

U SAD-u je tako u tijeku predizborna kampanja u kojoj političari otvoreno koriste sadržaj kreiran pomoću AI alata da bi napadali protivnike.

Guverner Floride Ron DeSantis, kandidat na predizborima unutar Republikanske stranke, napadao je protukandidata Donalda Trumpa korištenjem AI kreiranih fotografija i audio zapisa (pri čemu je Trumpov glas kloniran da bi se pročitala objava koju Trump jeste napisao na svojoj društvenoj mreži TruthSocial, ali je nikad nije izgovorio).

Indijski premijer Narendra Modi je, pak, u predizbornoj godini navodno prepoznao AI alate kao priliku za probijanje jezične barijere. U Indiji, naime, postoje čak 22 službena jezika, a ukupno se u toj državi govori više od 120 različitih jezika. Modi se, međutim, javnosti obraća isključivo na hindiju, koji njegova stranka kontroverzno pokušava učiniti jedinim službenim jezikom u Indiji. AI alati Modiju bi stoga mogli pomoći da se njegova poruka probije do govornika ostalih indijskih jezika, tj. omogućiti im da čuju umjetno generirane prijevode njegovih govora u kojima im se premijer obraća svojim glasom na njihovom jeziku (što se u stvarnosti, zbog Modijeve nacionalističke političke pozicije, nikad ne bi moglo desiti).

Druga strana problema

Kao što se vidi iz svega navedenog, AI alati imaju raznovrsne uporabe u pokušajima da se utječe na raspoloženje birača pa posredno i na rezultate izbora. Međutim, kreativni načini da se birače uvjeri u točnost dezinformirajućeg ili manipulativnog sadržaja nisu jedina opasnost koja proizlazi iz postojanja AI alata.

Samo postojanje tih alata olakšavat će političarima da sadržaj koji je istinit i činjenično točan, odnosno utemeljen, prezentiraju kao dezinformaciju kreiranu uz pomoć generativnih AI alata. Ovaj koncept, nazvan “lažljivčeva dividenda”, opisan je u radu dvoje profesora prava s američkih sveučilišta u Teksasu i Virginiji.

Deepfakeovi olakšavaju lažljivcima da izbjegnu odgovornost za stvari koje su zapravo točne”, navodi se u članku Roberta ChesneyjaDanielle Keats Citron izvorno objavljenom u časopisu California Law Review 2019. godine.

“Za autokrate je prednost kad mogu napadati ideju da postoji takva stvar kao što je objektivna istina. Dođete do točke u kojoj ljudi počnu misliti ‘Glasanje nije važno. Svi nas lažu. Ovo je sve inscenirano. Mi ovdje ne možemo kontrolirati nikakve ishode’. Zbog toga dolazi do pada sudjelovanja građana [u izbornim procesima]”, zaključuje Bret Schafer, stručnjak za propagandu iz organizacije German Marshall Fund.

Facebook
Twitter

Uočili ste objavu na društvenim mrežama i želite da provjerimo je li točna? Želite nas upozoriti na netočnu ili manipulativnu izjavu političara? Imate prijedloge, pohvale ili kritike? Pišite nam na [email protected] ili nas kontaktirajte putem Twittera ili Facebooka.