Razotkriveno

Nova AI audio generirana snimka: Urednica N1 nije kazala da je dr. Paladino ostao bez liječničke licence

Nakon ministra Vilija Beroša te znanstvenika Ivana Đikića, novinarka Nina Kljenak je najnovija žrtva novog načina prevara na Facebooku.
Screenshot: N1info.hr

Društvenim mrežama širi se sintetička snimka [1, 2] najave razgovora novinarke N1 Nine Kljenak i “poznatog kardiologa” koji “razotkriva” navodni lijek za visoki tlak, skriven od javnosti.

“Ne mogu više šutjeti. Umirovljenici trebaju znati da su na korak od smrti. Lako se riješiti hipertenzije uz pomoć..”, stoji u statusu koji prati ovaj video. Navodni kardiolog koji je “progovorio” i čija se slika nalazi u gornjem desnom kutu videa, uopće nije kardiolog, već poznati neurokirurg Josip Paladino. A novinarka N1 u videu izgovara sljedeći tekst:

“Poznati hrvatski kardiolog ostao je bez licence nakon skandaloznog intervjua. Kardiolog je otkrio tajnu koju su vlasti godinama skrivale od javnosti. Objavljujemo ovaj intervju i tražimo da mu se vrati dozvola.”

Kljenak: “Ovo se nikad nije dogodilo”

Međutim, Nina Kljenak nikada nije izgovorila ovaj tekst. Za Faktograf je potvrdila da se radi o sintetičkoj snimci, odnosno deepfakeu, manipuliranoj snimci koju je generirala umjetna inteligencija.

“Ovo se nikada nije dogodilo. Nikada u životu nisam ni razgovarala s doktorom Paladinom”, kazala nam je.

I N1 televizija je za Faktograf potvrdila da se ne radi o autentičnoj najavi njihove urednice te da ona nije emitirana u njihovom programu. “U programu N1 televizije nije emitirana ova informacija, naša urednica Nina Kljenak ne sudjeluje u oglašavanju ovakvih proizvoda niti emitiramo reklame za sumnjive farmakološke proizvode”, odgovorili su nam s televizije N1.

Prijavite se na F-zin, Faktografov newsletter

Prijava

Prijavom pristajete na Uvjete korištenja i Politiku privatnosti.

Paladino: “Nisam ostao bez licence”

Da nije ostao bez licence, u razgovoru nam je potvrdio i dr. Josip Paladino.

“Nije točno da sam ostao bez licence. I dalje radim”, kazao nam je Paladino. Također, nema niti jednog relevantnog izvora koji je potvrdio da je uglednom neurokirurgu ukinuta liječnička licenca.

Ovo nije prvi puta da je Paladino žrtva ovakve prevare no prvi puta se u takvoj prevari koristi AI generirana audio snimka, što je relativno novi alat prevaranata na društvenim mrežama kojim se želi postići veća uvjerljivost prevara.

U rujnu prošle godine Faktograf je pisao o objavi lažnog intervjua dr. Paladina u kojem smo utvrdili da taj liječnik ne reklamira lijekove ili pripravke za liječenje krvnih žila. Tada nam je Paladino potvrdio, a jučer opet ponovio, da je objave prijavio policiji, Hrvatskoj liječničkoj komori i Ministarstvu zdravstva. No, te prijave nisu prekinule praksu generiranja novih objava u kojima se lažno koristi njegovo ime. Također, o objavama lažnih intervjua s drugim liječnicima Faktograf je već pisao u više navrata (1234567).

Sintetičke snimke Vilija Beroša i Ivana Đikića

Ovo nije niti prvi puta da se za prodaju sumnjivih pripravaka koriste sintetičke snimke javnih osoba u Hrvatskoj. Do sada su na ovaj način zlorabljene javno dostupne snimke ministra zdravstva Vilija Beroša te znanstvenika Ivana Đikića, o čemu je Faktograf pisao. U toj objavi se lažno tvrdilo da Beroš reklamira čudotvorni lijek koji će ljude osloboditi bolova u zglobovima, a potom je objavljen sličan oglas s audio generiranom AI snimkom hrvatskog znanstvenika Ivana Đikića.

Ministar Beroš oštro je u rujnu reagirao na pojavu ove snimke, budući da je stvorena s namjerom zavaravanja i izvlačenja novca od osoba koje se bore s bolestima.

“Lažno oglašavanje te krađa identiteta i zloupotreba mojeg imena, kao i ranije drugih liječnika, je za svaku osudu struke i medija te postupanje nadležnih institucija. Trebamo zaštiti naše građane i pacijente koji su u fokusu našeg djelovanja”, poručio je, među ostalim.

Da se zaista radi o AI audio generiranim snimkama utvrdili smo u kontaktima s navedenim osobama, a nije bilo moguće ni pronaći relevantne izvore za takve njihove izjave, dok u ovom trenutku ne postoji sto posto pouzdan alat kojim bi se utvrdilo je li neka snimka AI generirana.

Od osvetničke pornografije do obmane birača

O samoj deepfake tehnologiji raspravlja se od kasnih 2010-ih. U prvom javnosti poznatijem slučaju, više je žena postalo žrtvama sintetičke pornografije. Prije pet godina, do 95 posto deepfake uradaka koristilo je javno dostupne fotografije žena i zamjenjivao ih s licima glumica u pornografskim videima. Od tada, upotreba deepfakea je eksplodirala. Osim osvetničke pornografije i marketinga sumnjivih proizvoda, koristi se i svrhu predizbornih manipulacija, za prevare osiguranja, ali i za različite vrste maltretiranja i varanja.

Tehnologija sintetiziranja slike i zvuka sve je učinkovitija i sve teža za detekciju, zahvaljujući razvoju umjetne inteligencije. Od ove godine tako postoje i deepfakeovi u stvarnom vremenu. Prevaranti mogu kopirati snimku nečijeg glasa koja je objavljena na internetu, a zatim iskoristiti snimljeni zvuk kako bi oponašali žrtvinu voljenu osobu. Jedan 23-godišnjak optužen je da je ovom tehnikom prevario bake i djedove u Newfoundlandu za 200.000 dolara u samo tri dana.

Osim za strašenje baka i djedova da pošalju novac unucima u nevolji, deepfake se koristi za dobivanje poslova na daljinu kako bi se prevaranti domogli povlaštenih informacija tvrtke, ali i za izvlačenje novca od usamljenih muškaraca i žena.

Tisuću dolara za avatar dostojan e-marketinga

Kao što smo već pisali, neki AI alati za kreiranje zvučnih zapisa na internetu su besplatno dostupni korisnicima te se mogu koristiti za kreiranje vrlo uvjerljive kopije nečijeg glasa. No, i stvaranje kompletnih avatara s uparenom slikom postaje sve dostupnije. Samo jedna kineska tvrtka je proizvela 400.000 avatara influensera koji su u stanju danonoćno prodavati različite proizvode, a ima ambiciju proizvesti 100 milijuna umjetnih “radnika”, stvorenih na temelju nekoliko minuta video snimke. Trošak ovakvog radnika je jednokratan – od tisuću do nekoliko tisuća dolara za kvalitetnije avatare.

Yisroel Mirsky, istraživač umjetne inteligencije i stručnjak za deepfake na Sveučilištu Ben-Gurion u Negevu, rekao je da je tehnologija napredovala do točke gdje je moguće napraviti deepfake video iz samo jedne fotografije osobe i “pristojni” klon glasa iz samo tri ili četiri sekunde zvuka. Istraživač AI-ja Andrew Gardner navodi za LA Times da alati koji su široko dostupni za izradu deepfakeova zaostaju za najsuvremenijim te zahtijevaju oko pet minuta zvuka i jedan do dva sata videa. Zato su javne osobe te novinarke poput Nine Kljenak, koja u studiju provodi sate pred live kamerama, ranjivi na ovu vrstu manipulacije.

Facebook
Twitter

Uočili ste objavu na društvenim mrežama i želite da provjerimo je li točna? Želite nas upozoriti na netočnu ili manipulativnu izjavu političara? Imate prijedloge, pohvale ili kritike? Pišite nam na [email protected] ili nas kontaktirajte putem Twittera ili Facebooka.