Rat na Bliskom istoku doveo je do poplave dezinformacija generiranih umjetnom inteligencijom (AI), no osim posve krivotvorenih slika širi se još jedna vrsta sadržaja: autentične snimke "poboljšane" na načine za koje stručnjaci tvrde da suptilno mijenjaju percepciju onoga što se zbiva na terenu, javlja AFP.
Na upečatljivoj fotografiji Kuvajćanin naoružan željeznom palicom suočava se s klečećim američkim pilotom, koji je netom prije padobranom iskočio iz svog zrakoplova. Fotografija visoke rezolucije brzo se proširila internetom te su je objavili čak i neki mediji. Međutim, čini se da pilot ima samo četiri prsta na svakoj ruci.
Djelatnici AFP-a zaduženi za provjeravanje činjenica učitali su fotografiju u alate za detekciju AI-a i utvrdili da sadrži SynthID, nevidljiv vodeni žig koji služi identifikaciji slika načinjenih Googleovom tehnologijom AI-a. No, to nije cijela priča.
Sama situacija jest autentična. Videosnimka koja prikazuje isti događaj pojavila se na društvenim mrežama 2. ožujka, a satelitske snimke potvrdile su njegovu lokaciju. Također, poklapa se s izvješćima da je Kuvajt tog dana greškom oborio tri američka borbena zrakoplova.
AFP je uspio pronaći raniju inačicu fotografije na komunikacijskoj platformi Telegram, koja je odgovarala slici visoke rezolucije, samo što je bila mutna.
Alatima za detekciju AI-a utvrđeno je da je ta fotografija bila stvarna. To upućuje na to da je mogla poslužiti kao ishodišna točka za fotografiju izrađenu Googleovim alatima AI-a.
"Poboljšanje (kvalitete) korištenjem AI-a može suptilno izmijeniti teksture, lica, osvjetljenje ili pozadinske detalje te stvoriti fotografiju koja djeluje 'stvarnije od originala'", rekao je Evangelos Kanulas, profesor umjetne inteligencije na sveučilištu u Amsterdamu.
To može "pojačati određeni narativ o nekom događaju, pa se, naprimjer, neki prosvjed može činiti nasilnijim, gomila većom, izrazi lica intenzivnijima".
U drugom slučaju, korisnici društvenih mreža podijelili su dramatičnu snimku ogromnog požara blizu iračke zračne luke Irbil nakon što je Iran napao to područje 1. ožujka.
Premda je pronađen SynthID, fotografija nije bila potpuna krivotvorina. Izvorna verzija slike prikazuje isti prizor, no sa znatno manjim požarom i dimom.
"Veoma različita priča"
Stručnjaci su upozorili na to da je tanka linija između poboljšavanja i generiranja sadržaja, bilo je da riječ o slučajnom ili namjernom postupanju.
"Čak i male izmjene mogu na koncu pričati veoma različitu priču", kazao je James O'Brien, profesor računarstva na kalifornijskom sveučilištu Berkeley te dodao da bi to "moglo promijeniti percepciju događaja".
Generativna umjetna inteligencija također je i dalje sklona greškama i može "halucinirati" te dodati elemente koji nisu bili u prvotnoj slici, dodao je Kanulas.
To se dogodilo nakon što su savezni imigracijski agenti ustrijelili Alexa Prettija u američkoj saveznoj državi Minneapolis u siječnju kada se fotografija incidenta poboljšana umjetnom inteligencijom brzo proširila internetom.
Slika se temeljila na dijelu autentičnog videa pucnjave, u kojem Pretti pada na koljena pored saveznih službenika, od kojih jedan drži pištolj prislonjen na Prettijevu glavu.
U niskokvalitetnom videu Pretti drži predmet koji je zapravo bio mobitel. No, u slici obrađenoj AI-em neki korisnici društvenih mreža pogrešno su vidjeli oružje u njegovoj ruci.
Kako rat prouzročen američko-izraelskim napadima na Iran još uvijek traje, stručnjaci kažu da snimke poboljšane umjetnom inteligencijom bez pripadajućih oznaka dodatno umanjuju povjerenje javnosti.
Ovakva vrsta sadržaja već je imala "ogroman utjecaj na ljude i njihovu sposobnost da vjeruju u istinu", rekao je O'Brien.
"Sada ljudi počinju sumnjati i u autentične snimke", složio se Kanulas.