Razotkriveno

Video ne prikazuje ples Zelenskog na zabavi, generiran je pomoću AI alata

Na snimku plesača, koja je originalno objavljena u veljači 2022. godine, digitalno je "namontirano" lice ukrajinskog predsjednika.
Foto: HINA/ Vlada RH/ ml

Na profilima korisnika društvenih mreža krajem prošle i početkom ove godine (arhivirano ovdje, ovdje i ovdje)  proširio se navodni video ukrajinskog predsjednika Volodimira Zelenskog kako pleše na zabavi.

Privatna hrvatska korisnica je na svom Facebook profilu snimku objavila 5. siječnja (status arhiviran ovdje, a snimka ovdje) uz opis u kojem se sugerira da se na snimci nalazi ukrajinski predsjednik.

Originalna snimka je iz 2022. i na njoj se ne nalazi Zelenski

Originalni video, na kojem se ne nalazi Zelenski nego drugi muškarac, objavljen je još 7. veljače 2022. godine (arhiviran ovdje). Na snimci se vidi muškarac kako pleše u crvenom kostimu. Video je postavljen na Instagram profilu naziva gamgam.tv.

Istom lažnom snimkom ukrajinskog predsjednika početkom siječnja bavili su i drugi portali za provjeru činjenica (ovdje i ovdje). Portal Full Fact je u svojem tekstu napisao da je originalni video promijenjen upotrebom umjetne inteligencije, odnosno da je na tijelo plesača koji se pojavljuje u originalnom videu postavljeno lice Zelenskog te je tako stvoren dojam da u videu pleše upravo ukrajinski predsjednik. Full Fact je detaljno analizirao snimku te su otkrili znakove koji dokazuju da je izmijenjen. Ako se uspori, vidljive su neuobičajene promjene na licu plesača. Oko treće sekunde, lice se stapa sa zidom iza plesača, a oko 17. sekunde lice postaje jasno izobličeno.

Prijavite se na F-zin, Faktografov newsletter

Prijava

Prijavom pristajete na Uvjete korištenja i Politiku privatnosti.

Korištenje deepfake tehnologije

Kako je nedavno pisao Faktograf, o samoj deepfake tehnologiji raspravlja se od kasnih 2010-ih. U prvom javnosti poznatijem slučaju, više je žena postalo žrtvama sintetičke pornografije. Prije pet godina, do 95 posto deepfake uradaka koristilo je javno dostupne fotografije žena i zamjenjivao ih s licima glumica u pornografskim videima. Od tada, upotreba deepfakea je eksplodirala. Osim osvetničke pornografije i marketinga sumnjivih proizvoda, koristi se i svrhu predizbornih manipulacija, za prevare osiguranja, ali i za različite vrste maltretiranja i varanja.

Tehnologija sintetiziranja slike i zvuka sve je učinkovitija i sve teža za detekciju, zahvaljujući razvoju umjetne inteligencije. Od ove godine tako postoje i deepfakeovi u stvarnom vremenu. Prevaranti mogu kopirati snimku nečijeg glasa koja je objavljena na internetu, a zatim iskoristiti snimljeni zvuk kako bi oponašali žrtvinu voljenu osobu. Jedan 23-godišnjak optužen je da je ovom tehnikom prevario bake i djedove u Newfoundlandu za 200.000 dolara u samo tri dana.

Osim za strašenje baka i djedova da pošalju novac unucima u nevolji, deepfake se koristi za dobivanje poslova na daljinu kako bi se prevaranti domogli povlaštenih informacija tvrtke, ali i za izvlačenje novca od usamljenih muškaraca i žena.

Zaključno, osoba koja pleše u videu nije ukrajinski predsjednik Volodimir Zelenski već je na snimku drugog muškarca alatima umjetne inteligencije “namontirano” lice ukrajinskog predsjednika, zbog čega objavu ocjenjujemo kao netočnu.

Facebook
Twitter

Uočili ste objavu na društvenim mrežama i želite da provjerimo je li točna? Želite nas upozoriti na netočnu ili manipulativnu izjavu političara? Imate prijedloge, pohvale ili kritike? Pišite nam na [email protected] ili nas kontaktirajte putem Twittera ili Facebooka.