Pod povećalom

Zastani prije nego što povjeruješ: Kako prepoznati AI podvale

Nisu sve vijesti, fotografije ili snimke koje gledate na internetu ono što izgledaju. Nauči uhvatiti umjetnu inteligenciju "u laži".
Unsplash/Andrej Lišakov

Skrolajući po društvenim mrežama, naišli ste na fotografiju koja vam je oduzela dah. Zaustavili ste prst na trenutak, a oči su vam zasjale nad savršenim prizorom: s jedne strane zbijene betonske zgrade, krovovi, asfalt i čelik, s druge bujna, gusta i divlja, amazonska šuma. Granica između ta dva svijeta, ljudske civilizacije i prirode, veoma je oštra, što, u biti, sliku čini impresivnom.

Pomislili ste: “Ovo moji prijatelji moraju vidjeti!”. Bez previše zadrške, stisnuli ste “share“. Slika koja je navodno nastala iznad brazilskog grada Manausa, oduševila je mnoge i potom prikupila stotine lajkova, a korisnici su je isticali kao impresivan primjer “simbioze prirode i grada”.

Screenshot/Facebook

Iako je istina da se dijelovi Manausa zaista nalaze uz rub Amazonske prašume, slika koja se dijelila u digitalnom okruženju, nije prikazala stvaran prizor. Generirana je pomoću umjetne inteligencije, o čemu smo pisali u ožujku ove godine.

Ovo je samo jedan od slučajeva u kojem se AI-tehnologija koristi za generiranje vizualnog (i drugog) sadržaja koji izgleda sve uvjerljivije. Motivacije za stvaranje takvih dezinformacijskih sadržaja različite su i neke, poput ove gornje, nisu, bar na prvi pogled, zlonamjerne (1, 2, 3).

Neki jednostavno stvaraju takav sadržaj radi zabave ili znatiželje, testirajući “kreativnost” nove tehnologije. Drugi ga koriste inspiracije radi, poput prikazivanja idealiziranih verzija krajolika, gradova, građevina, ljudi ili životinja. No, iza nekih stoje ozbiljnije i maliciozne namjere, posebno u online prevarama (1, 2, 3), (informacijskim) ratovima (1, 2) i političkim kampanjama u kojima se manipulira javnim mnijenjem i diskreditira oponente (1, 2).

Upravo zato važno je znati kako prepoznati sadržaje koje je generirala umjetna inteligencija. U ovom tekstu predstavit ćemo korisne alate i upute kako se zaštititi od ove sveprisutnije digitalne manipulacije.

Alati za prepoznavanje AI-a

Paralelno s razvojem alata za kreiranje sintetičkih i digitalno manipuliranih sadržaja, razvijaju se i alati koji ih otkrivaju. Ipak, kako neki stručnjaci ukazuju, ovdje se radi o svojevrsnoj igri mačke i miša. Kako se tehnologija za otkrivanje umjetne inteligencije poboljšava, tako se poboljšava i uvjerljivost umjetne inteligencije.

Među novinarima, posebice onima koji se bave raskrinkavanjem lažnih i neautentičnih sadržaja, popularno je nekoliko njih (primjerice Hive Hoderaion, Deepware Scanner ili Winston AI). Takvi alati, nakon što u njih učitate sadržaj koji želite provjeriti, u postotcima izražavaju kolika je vjerojatnost da je autor čovjek ili stroj.

Istraživačice WITNESS-a, organizacije koja se bavi pitanjem transparentnosti umjetne inteligencije (1, 2), Shirin Anlen i Raquel Vázquez Llorente, izravno su usporedile pouzdanost raznih alata za detekciju deepfake-a popularnih među novinarima. Na njihovom popisu bili su Optic, Hive Moderation, V7, Invid i Deepware Scanner. Pokazale su da ovi alati mogu poslužiti kao “izvrsna polazna točka” za sveobuhvatniji proces provjere, ali ne i jedini izvor – jer njihove rezultate može biti teško interpretirati.

To je zato što većina rezultata koje pružaju alati za detekciju umjetne inteligencije daje ili interval pouzdanosti ili probabilističko određivanje (npr. 85 posto ljudsko), dok drugi daju samo binarni rezultat ‘da/ne’. “Može biti izazovno interpretirati ove rezultate bez boljeg poznavanja modela detekcije, primjerice za što je obučen da otkrije, koji skup podataka je korišten za obuku i kada je zadnji put ažuriran”, pišu autorice istraživanja.

Ako novinar učita sumnjivu sliku u alat za detekciju AI-ja i on kaže da je fotografija “70 posto ljudska” i “30 posto umjetna”, njemu to vrlo malo govori o tome koji su elementi slike digitalno izmijenjeni, a još manje o njezinoj ukupnoj autentičnosti. Označavanje slike čak i kao djelomično “umjetne” implicira (potencijalno lažno) da je slika značajno promijenjena u odnosu na izvorno stanje, ali ne govori ništa o tome kako su se priroda, značenje ili implikacije slike mogli promijeniti.

Na primjer, alati mogu dati procjenu da je neka fotografija digitalno obrađena ili nastala uz pomoć stroja samo zato što ste u njih ubacili “lošu datoteku”: obrezanu, zamućenu ili komprimiranu fotografiju, bez metapodataka.

Zbog toga je pri verifikaciji sadržaja za koji se sumnja da je nastao alatima umjetne inteligencije dobro kombinirati više metoda. Novinari Faktografa također u tom procesu koriste alate za detekciju AI-ja, ali uz dodatne provjere.

Recimo, ako je subjekt deepfake-videa neka poznata ličnost, kontaktirat ćemo tu osobu da nam potvrdi (ne)autentičnost sadržaja (1, 2). Provjeravat ćemo geolokacije, tragati za izvorom originalne fotografije ili videa, pitati stručnjake njihovo mišljenje, pa i golim okom tražiti nelogičnosti sadržaja.

Značajke AI-a koje sami možete prepoznati

Kako je Faktograf ranije pisao, da bi kreirali uvjerljivu sintetsku kopiju nečijeg glasa ili stasa, AI alatima je potreban materijal iz kojeg mogu učiti. Drugim riječima, AI alate najprije je potrebno “nahraniti” postojećim autentičnim snimkama osoba čiji se identitet koristi za promoviranje dezinformacija i prevara, zbog čega prevaranti nužno posežu za snimkama koje su im lako dostupne (npr. na YouTubeu i sličnim servisima).

Britanski The Guardian, u članku u kojem objašnjava kako raspoznati deepfake i sadržaje generirane uz pomoć alata umjetne inteligencije, napominje kako je videozapise, posebno one u kojima se pojavljuju ljudi, teže lažirati nego fotografije ili zvuk. Budući da videozapis uključuje sliku, pokret i zvuk, ti su elementi često neusklađeni.

Pri analizi deepfake-videa na kojima se pojavljuju ljudski likovi valja se fokusirati na ekspresije lica, treptanje, rubove glave (koji mogu biti nazubljeni ili pikselizirani). Posebna se pažnja pridaje pokretima usana, jer trenutni AI video-alati uglavnom mijenjaju te pokrete kako bi dobili rečenice koje stvarna osoba nije izgovorila.

Ljudski zvuk generiran umjetnom inteligencijom često ima blaži ton, a govor je manje konverzacijski od onoga kako obično razgovaramo. Uz to, ne čuje se puno emocija, zastajkivanja ili poštapalica.

AI-generirane fotografije ljudi također skrivaju niz nelogičnosti. Neke od najuočljivijih su lica, udovi i prsti. AI često generira višak prstiju, odsječene udove i neprirodne položaje. Osmijesi znaju izgledati neprirodno, sa zubima koji su zamućeni ili čudno oblikovani. Pozadine “fotografija” često sadrže izobličene predmete i nelogične sjene.

Što se tiče sadržaja na kojima nema ljudi, primjerice građevina ili pejzaža, poput gore navedenog primjera, treba uzeti u obzir nekoliko stvari. Umjetna inteligencija često generira slike s dramatičnim osvjetljenjem, jakim bojama i prezasićenim efektima. To smo vidjeli na primjeru požara koji su početkom godine zahvatili područje Los Angelesa.

Na mnogim je snimkama i fotografijama za koje se tvrdilo da prikazuju područje LA-a, kretanje vatre izgledalo nerealno, kao i sjene te oblaci dima koji su bili previše ujednačeni po obliku i smjeru. Ispalo je da su generirane digitalnim alatima (1, 2).

Prijavite se na F-zin, Faktografov newsletter

Prijava

Prijavom pristajete na Uvjete korištenja i Politiku privatnosti.

Pravila na društvenim mrežama

Kao odgovor na rastuću zabrinutost zbog dezinformacija, deepfakeova i netransparentnosti, društvene mreže počele su regulirati korištenje umjetne inteligencije. Propisi se razlikuju ovisno o platformi, odnosno, kompaniji koja stoji iza nje.

Meta, kompanija u čijem su vlasništvu Facebook, Instagram i Threads, zahtijeva oznaku AI kada se pojavi “fotorealističan video ili realističan zvuk koji je digitalno stvoren, modificiran ili izmijenjen, uključujući i pomoću umjetne inteligencije”. Slike stvorene pomoću Metinih vlastitih AI alata označene su kao “Zamišljeno s AI-jem”. Ove slike uključuju vidljive markere, nevidljive vodene žigove i metapodatke koji označavaju njihovo podrijetlo.

Meta također planira označavati slike generirane Ai-alatima drugih tvrtki (OpenAI, Google, Adobe) otkrivanjem industrijskih standardnih indikatora ugrađenih u sadržaj.

TikTok zahtijeva od kreatora sadržaja da označe sadržaj generiran umjetnom inteligencijom. Ukoliko to korisnik sam ne napravi, TikTok može automatski primijeniti oznaku “generirano umjetnom inteligencijom” na sadržaj koji identificira kao potpuno generiran ili značajno uređen AI-jem.

YouTube također nalaže korisnicima da otkriju kada njihov sadržaj uključuje realistične, umjetnom inteligencijom generirane ili sintetički izmijenjene snimke. To je posebno važno za sadržaj vezan uz osjetljive teme poput zdravlja, vijesti, političkih izbora ili financija.

Neki korisnici ovih platformi isključivo se bave kreiranjem sadržaja uz pomoć AI-ja i to transparentno komuniciraju u opisima svojih profila. Međutim, kako se sadržaji lako preuzimaju (downloadaju ili screenshotaju) i sele s platforme na platformu (često bez znanja autora), preuzimatelji i kradljivci ih nekad namjerno raspačavaju, bez naznake da sadržaj nije autentičan. Faktograf svako malo nailazi na takve slučajeve.

Prošle se godine na društvenim mrežama pojavio opis i slika ptice nazvane “madagaskarski jajonosni drozd”. Navodno je to jedina ptica koja ne polaže jaja i ne gradi gnijezdo. Pisalo se kako “po završetku graviditeta ženka polaže dva, u rijetkim slučajevima i tri jajeta, gotovo savršeno okruglog oblika u posebnu kožnu kesu”.

Screenshot/Facebook

Fotografija koja se dijelila uz tu tvrdnju nastala je pomoću alata umjetne inteligencije (AI). Objavljena je 26. ožujka 2024. godine na Instagram profilu “dallvador” (1, 2) u čijem opisu stoji: “Istraživanje intersekcije umjetnosti i umjetne inteligencije. Sve slike je ekskluzivno generirao DALL·E iz OpenAI-ja”. U opisu tog vizuala priča je o imaginarnom ptiću TitanNutu kojemu je “priroda podarila jedinstveni talent: privlačenje pažnje”. Naime, pažnju je privlačio “sićušnim nogama i neproporcionalno velikim atributima”.

Ovaj slatki neobični ptić brzo je poletio bespućima interneta, bez prenošenja intencije njegovog kreatora.

Stoga, i kad se samo poželite poigrati s AI-alatima, zabaviti ili impresionirati svoje pratitelje, imajte na umu da se sadržaj generiran umjetnom inteligencijom lako može lažno predstaviti kao stvaran. On tada postaje moćan alat za obmanu i manipulaciju. Upravo zato, zastanite na trenutak i promislite prije nego stisnete “share“.

Facebook
WhatsApp

Uočili ste objavu na društvenim mrežama i želite da provjerimo je li točna? Želite nas upozoriti na netočnu ili manipulativnu izjavu političara? Imate prijedloge, pohvale ili kritike? Pišite nam na [email protected] ili nas kontaktirajte putem Twittera ili Facebooka.