Kako da prepoznate AI video: Jedan detalj koji skoro uvek odaje lažni snimak

   
Čitanje: oko 2 min.
  • 0

Društvene mreže su već prepune video snimaka nastalih pomoću veštačke inteligencije, a problem je što ih je sve teže razlikovati od pravih. Snimci koji deluju kao da su nastali slučajno, bez montaže i bez ikakvog plana, danas su često rezultat naprednih AI alata.

Ipak, i dalje postoji jedan detalj koji se iznova ponavlja kod velikog broja lažnih AI videa, a koji može da vam pomogne da zastanete pre nego što poverujete u ono što gledate.

Ako video izgleda kao da je lošeg kvaliteta, zrnast, mutan ili previše kompresovan, to ne znači automatski da je lažan, ali upravo takvi snimci su trenutno najčešće korišćeni za obmane.

Zašto su mutni i kratki snimci idealni za prevare

Prema rečima Hani Farida, profesora kompjuterskih nauka na Univerzitetu u Berkliju i pionira digitalne forenzike, AI video generatori i dalje prave sitne greške, ali one više nisu očigledne. Umesto drastičnih propusta, problemi se sada kriju u detaljima, poput neprirodne teksture kože, čudnih obrazaca kose ili sitnih objekata u pozadini koji se pomeraju na nerealističan način.

Problem je što se te greške najlakše uočavaju na snimcima visokog kvaliteta. Kada je video namerno zamućen, sa niskom rezolucijom i jakom kompresijom, ti tragovi praktično nestaju, zbog čega takvi klipovi deluju uverljivije nego što bi smeli.

Stručnjaci ističu još jednu zajedničku karakteristiku. Ogromna većina AI video snimaka traje svega nekoliko sekundi, često između šest i deset. Razlog je jednostavan. Generisanje videa je skupo, a što je snimak duži, veća je šansa da će veštačka inteligencija napraviti vidljivu grešku.

Zato viralni klipovi koji su prevarili milione ljudi često izgledaju kao snimci sa sigurnosnih kamera, previše zumirani kadrovi ili kratki isečci bez jasnog konteksta.

Upravo takvi su bili i najpoznatiji primeri poslednjih meseci, od lažnih snimaka životinja do emotivnih scena iz javnog prevoza i navodnih govora koji su delovali previše neverovatno da bi bili stvarni, ali su ipak masovno deljeni.

Stručnjaci upozoravaju da ovaj „znak upozorenja” neće još dugo važiti. AI alati se ubrzano unapređuju i vizuelni tragovi koji danas postoje mogli bi da nestanu već u narednih godinu ili dve.

Zbog toga poruka nije da svaki loš snimak treba automatski odbaciti, već da video više ne treba posmatrati kao dokaz sam po sebi. Sve važnije postaje pitanje ko je sadržaj objavio, odakle potiče i da li postoji pouzdan izvor koji ga potvrđuje.

(Telegraf Biznis)

Video: Otvaraju se vrata za nove privredne i obrazovne projekte sa Srbijom: Dačić iz Malija i Nigera

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf Biznis zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

  • Eur: <% exchange.eur %>
  • Usd: <% exchange.usd %>