Analiza snimaka Milovana Medeniće: Snažne indikacije AI manipulacije

Alekandar Manasiev, stručnjak za medije, ukazuje na 80% vjerovatnoće da su video snimci Milovana Medeniće AI-generisani, ali naglašava potrebu za originalnim fajlovima za konačnu procjenu.

0
Analiza snimaka Milovana Medeniće: Snažne indikacije AI manipulacije

U razgovoru za portal RTCG, istraživač i medijski ekspert Alekandar Manasiev ocijenio je da prvi video-snimci koji se pripisuju odbjeglom Milovanu Medeniću nose snažne indikacije da je riječ o AI-generisanom sadržaju, uz procijenjenu vjerovatnoću od oko 80 odsto. Međutim, Manasiev upozorava da bez originalnih fajlova nije moguće donijeti apsolutni zaključak.

Manasiev naglašava da ne postoji jedan jedini dokaz koji sam po sebi potvrđuje da je sadržaj generisan vještakom inteligencijom. "Ne postoji jedan indikator koji sam po sebi predstavlja dokaz. Pouzdana procjena se uvijek zasniva na kombinaciji više elemenata – vizuelnih, audio i kontekstualnih", objašnjava Manasiev, dodajući da se kod videa analizira ponašanje lica u odnosu na glavu i okruženje, sinhronizacija pokreta usana sa govorom, stabilnost kože, očiju i svjetla, kao i vremenska konzistentnost kroz više kadrova.

On ističe da problem nastaje kada su snimci snažno kompresovani, snimani u slabom osvjetljenju i više puta ponovo objavljivani, što može otežati uočavanje forenzickih tragova. "Tada se dio forenzičkih tragova gubi ili postaje teško uočljiv", dodaje Manasiev.

Prema njegovim riječima, audio segment je često još osjetljiviji za manipulaciju, kao što ilustruje slučaj slovačke novinarke Monike Todove iz lista Denník N, gdje je AI-generisani audio korišćen kako bi se stvorio utisak autentičnog razgovora. "Savremeni alati mogu veoma uvjerljivo imitirati glas, intonaciju i emocionalni ton, ali i dalje griješe u suptilnim detaljima – u ritmu govora, pauzama, disanju i kontekstu u kojem se pojedine rečenice koriste", napominje Manasiev.

On također upozorava na mogućnost sofisticiranije manipulacije, gdje jedna osoba može pročitati tekst na čistom crnogorskom jeziku, sa lokalnim dijalektom, a taj snimak se koristi za treniranje modela koji imitira glas druge osobe. "Dijalekat, ritam i naglasak već postoje u osnovnom snimku, dok se AI koristi isključivo za promjenu glasa. Rezultat može biti vrlo uvjerljiv, ali i izrazito manipulativan sadržaj", naglašava Manasiev.

Kada je riječ o analizi snimaka Milovana Medeniće, Manasiev ističe da analiza prvih video-klipova ukazuje na snažne indikacije da je riječ o AI-generisanom sadržaju, s procijenjenom vjerovatnoćom od oko 80 odsto. "Kod kasnijih snimaka ti indikatori su slabije izraženi, ali to ne predstavlja dokaz njihove autentičnosti. Naprotiv, pokazuje koliko kvalitet izvornog materijala, nivo kompresije i uslovi snimanja utiču na mogućnost pouzdane detekcije", dodaje Manasiev.

Prema njegovim riječima, sve upućuje na to da su kreatori videa dobro upućeni u proces verifikacije. "Snažna kompresija i slabo osvjetljenje, gotovo kao da su snimci napravljeni mobilnim telefonom starim deset godina, mogu biti svjesno korišćeni kako bi se otežalo otkrivanje eventualne manipulacije", kaže Manasiev, napominjući da takav kvalitet materijala onemogućava da se sa sigurnošću dokaže i da su snimci autentični, ali i da su lažni.

Manasiev naglašava da tehnička analiza nije dovoljna bez razmatranja šireg konteksta. "Treba analizirati da li se osoba koja se pojavljuje u snimcima ranije oglašavala na ovakav način, da li je imala praksu objavljivanja video-poruka ili javnih komentara, i ako nije, zašto se to dešava upravo sada", objašnjava Manasiev. Takođe, važno je pitanje kanala distribucije. "U konkretnom slučaju sadržaj se ne pojavljuje putem ranije poznatog ili direktno povezanog kanala te osobe, već preko profila na platformi X, pri čemu nije jasno ko stoji iza tog naloga i sa kojom namjerom", dodaje on.

Manasiev podsjeća da tehnologija napreduje brže od detekcije, ukazujući na to da su AI-generisane fotografije često lakše uočljive zbog anatomskih nelogičnih detalja, dok su video i audio znatno kompleksniji. "Ključ je u kombinaciji tehničkih alata i ljudske forenzijske procjene. Međutim, većina ozbiljnijih alata se plaća i zahtijeva tehničko znanje", ističe Manasiev.

U kontekstu "Deepfake" tehnologije, Manasiev napominje da je teoretski moguće izvoditi zamjenu lica i sintetički generisati govor u realnom vremenu. Ipak, takvi scenariji zahtijevaju ozbiljnu tehničku infrastrukturu i strogo kontrolisane uslove snimanja. "U praksi se zato često pribjegava niskoj rezoluciji, slabom osvjetljenju i ograničenom kadru, kako bi se prikrili tehnološki nedostaci", zaključuje Manasiev.

On smatra da bi u ovakvim situacijama trebalo da se oglase relevantne institucije, poput centara za sajber bezbjednost ili nacionalnih CERT-ova, kako bi se smanjio prostor za spekulacije i dezinformacije u javnosti. "Ključni problem predstavlja činjenica da tehnologija za kreiranje 'Deepfake' sadržaja postaje sve dostupnija i kvalitetnija, dok sistemi za njihovo otkrivanje ne napreduju istim tempom", zaključuje Manasiev.

Podsjećamo, do sada je na jednom profilu platforme X objavljeno sedam videa sa navodnim Milovanom Medenićem. Iz Uprave policije su tim povodom reagovali tvrdeći da je video lažan. Milovan Medenić se od 28. januara nalazi u bjekstvu, nakon što ga je Viši sud u Podgorici u prvostepenom postupku osudio na deset godina i dva mjeseca zatvora.

Pročitaj još

Nema dostupnih informacija sa lokalnog portala iz Kotor

Članak nije mogao biti preuzet zbog zaštite podataka. Potrebni su dodatni koraci za pristup informacijama.

Slični članci

Svidjela ti se ova vijest?

Dobij još 5 najvažnijih svako jutro direktno u inbox. Besplatno.

Bez spam-a. Odjava u bilo kom trenutku.