Studija otkriva da se dipfejk prevare odvijaju na industrijskom nivou

Prevara pomoću dipfejk tehnologije postala je široko rasprostranjena, pokazuje nova studija. U analizi su navedeni primjeri korišćenja dipfejk videa, uključujući one sa premijerom Zapadne Australije, kao i lažne ljekare koji reklamiraju proizvode.

0
Studija otkriva da se dipfejk prevare odvijaju na industrijskom nivou

Prevara pomoću dipfejk tehnologije postala je "industrijska", navodi se u analizi koju su objavili stručnjaci za vještačku inteligenciju, piše Gardijan. Alati za pravljenje prilagođenih, čak i personalizovanih prevara – koji koriste, na primjer, dipfejk snimke švedskih novinara ili predsjednika Kipra – više nijesu nišni, već su jeftini i lako se mogu koristiti u velikim razmjerama, navodi se u analizi "AI Incident Databasea".

U analizi je zabilježeno više od desetak nedavnih primjera "lažnog predstavljanja radi zarade", uključujući dipfejk video premijera Zapadne Australije Roberta Kuka koji promoviše investicionu šemu, kao i dipfejk ljekare koji reklamiraju kreme za kožu. Ovi primjeri dio su trenda u kojem prevaranti koriste široko dostupne AI alate kako bi sprovodili sve ciljanije prevare.

Prošle godine, finansijski službenik u jednoj multinacionalnoj kompaniji sa sjedištem u Singapuru uplatio je skoro 500.000 dolara prevarantima, vjerujući da učestvuje u video-pozivu sa rukovodstvom kompanije. Procjenjuje se da su potrošači u Ujedinjenom Kraljevstvu izgubili 9,4 milijarde funti (10,8 milijardi eura) zbog prevara u devet mjeseci do novembra 2025. godine.

"Mogućnosti su iznenada dostigle nivo na kojem gotovo svako može da proizvodi lažni sadržaj", rekao je Sajmon Majlus, istraživač s MIT-a koji radi na projektu povezanom s "AI Incident Databaseom". On je izračunao da su "prevare, obmane i ciljane manipulacije" činile najveći udio incidenata prijavljenih bazi podataka u 11 od posljednjih 12 mjeseci.

"Postalo je toliko dostupno da praktično više ne postoji barijera za ulazak", rekao je. "Razmjeri se mijenjaju", kazao je Fred Hajding, istraživač s Harvarda koji proučava prevare zasnovane na AI tehnologiji. "Postaje toliko jeftino da gotovo svako može da ga koristi. Modeli postaju zaista dobri – i napreduju mnogo brže nego što većina stručnjaka misli."

Početkom januara, Džejson Rebholc, izvršni direktor kompanije Evoke, koja se bavi AI bezbjednošću, objavio je oglas za posao na LinkedInu i gotovo odmah ga je kontaktirala nepoznata osoba iz njegove mreže, preporučivši kandidata. U roku od nekoliko dana, razmjenjivao je mejlove s osobom koja je, makar na papiru, djelovala kao izuzetno talentovan inženjer.

"Pogledao sam CV i pomislio: ovo je stvarno dobar CV. I onda sam, iako je bilo nekih crvenih zastavica, odlučio da obavim razgovor", rekao je Rebholc. Tada su stvari postale čudne. Mejlovima kandidata je često bio označen kao neželjena pošta. CV je imao neobične detalje. Ipak, Rebholc je ranije imao iskustva s neobičnim kandidatima i odlučio je da nastavi s intervjuom.

Kada je započeo poziv, video kandidata se pojavio tek nakon skoro minut. "Pozadina je bila ekstremno lažna. Izgledalo je baš, baš lažno. Sistem se mučio s ivicama oko osobe – dijelovi tijela su se pojavljivali i nestajali… A kada sam gledao lice, bilo je previše zamućeno oko ivica", rekao je. Rebholc je ipak nastavio razgovor, ne želeći da se suoči s neprijatnošću da direktno pita kandidata da li je, zapravo, riječ o sofisticiranoj prevari.

Nakon toga, snimak je poslao kontaktu u firmi koja se bavi detekcijom dipfejk sadržaja, koji mu je potvrdio da je video snimak kandidata generisan pomoću AI-ja. Kandidat je odbijen. Rebholc i dalje ne zna šta je prevarant želio – inženjersku platu ili poslovne tajne.

Iako je bilo izvještaja o sjevernokorejskim hakerima koji pokušavaju da se zaposle u Amazonu, Evoke je startap, a ne veliki globalni igrač. "Ako se ovo dešava nama, onda se dešava svima", rekao je Rebholc. Hajding upozorava da najgore tek dolazi.

Trenutno je tehnologija kloniranja glasa izuzetno dobra – što prevarantima olakšava da se, na primjer, telefonom predstave kao unuk ili unuka u nevolji. Dipfejk video snimci, s druge strane, još uvijek imaju prostora za unapređenje. To bi moglo imati ekstremne posljedice: za zapošljavanje, izbore i društvo u cjelini. Hajding dodaje: "To će biti najveći problem – potpuni gubitak povjerenja u digitalne institucije, ali i u institucije i materijal uopšte."

Pročitaj još

Novi Xbox dolazi ranije: Spoj hardvera i oblačnog procesuiranja

Microsoft planira da novu generaciju Xbox konzole predstavi 2027. godine, umjesto prvobitno očekivane 2028. godine. Razvoj se fokusira na vještačku inteligenciju i hibridnu platformu koja kombinuje snagu hardvera i oblačno procesuiranje.

Novi Xbox dolazi ranije: Spoj hardvera i oblačnog procesuiranja

Slični članci

Svidjela ti se ova vijest?

Dobij još 5 najvažnijih svako jutro direktno u inbox. Besplatno.

Bez spam-a. Odjava u bilo kom trenutku.