Fotografija tek iskopanih grobova za pokop više od sto mladih djevojaka iz iranskog grada Minaba jedna je od onih koja je postala simbol stradavanja civila.
Svježe iskopani grobovi leže u urednim redovima od 20 grobova u širinu. Više od 60 ih je već iskopano, a oko njih stoji nekoliko skupina ljudi. Deseci drugih grobova označeni su kredom na tlu, a kopači se spremaju dovršiti zadatak.
No, je li ova fotografija stvarna? Naime, brojne lažne fotografije dio su plimnog vala umjetne inteligencije koji je zahvatio izvještavanje o iranskom ratu.
Novinari Guardiana počeli su istraživati fotografiju. Gemini, usluga umjetne inteligencije koju pokreće Google, tvrdi da fotografija ne prikazuje groblje Minab, već da je snimljena dvije godine ranije na mjestu udaljenom više od 2000 km. Umjesto grobova za djevojčice ubijene projektilom, Gemini tvrdi da slika prikazuje masovno groblje u Kahramanmaraşu u Turskoj nakon potresa magnitude 7,8 koji je pogodio grad 2023.
X-ov asistent za umjetnu inteligenciju Grok pak tvrdi kako se radi o fotografiji s groblja Rorotan u Jakarti u Indoneziji te da prikazuje masovni pokop za vrijeme COVID-a iz srpnja 2021.
U oba slučaja odgovori umjetne inteligencije zvuče sigurno: nedvosmisleno navode izvore, pa čak i navode izvore za originalnu sliku. Međutim, ako slijedite nit kako biste ih pregledali, počet ćete nailaziti na slijepe ulice: ili se slika uopće ne pojavljuje ili je navedena poveznica na vijesti koje ne postoje. Unatoč svom dojmu jasnoće i preciznosti, umjetne inteligencije jednostavno griješe.
Slika groblja Minab, ispostavilo se, autentična je. Istraživači su usporedili fotografiju mjesta sa satelitskim snimkama koje potvrđuju njegovu lokaciju, a mogu se ponovno usporediti s desecima drugih slika istog mjesta snimljenih iz malo drugačijih kutova te s videosnimkama za koje stručnjaci kažu da niti jedna ne pokazuje znakove manipulacije ili digitalne manipulacije.
"Provjere činjenica" Geminija i Groka samo su jedan primjer gomile nebitnih informacija generiranih umjetnom inteligencijom, izmišljenih činjenica, besmislenih analiza i lažnih slika, koje preplavljuju izvještavanje o iranskom ratu. Stručnjaci kažu da se time gubi vrijeme istrage i riskira poricanje zločina, kao i da se time najavljuje alarmantna slabost jer se ljudi sve više oslanjaju na sažetke umjetne inteligencije za vijesti i informacije.
Od prvih dana rata stručnjaci koji provjeravaju činjenice bili su zatrpani stalnim priljevom lažnih slika na internetu. Fotografija onoga što je Tehran Times tvrdio da je satelitska snimka američkog radara uništenog u Katru razotkrivena je kao lažna – napravljena umjetnom inteligencijom od starih slika s Google Eartha, a među razotkrivajućim znakovima bili su i automobili, koji su svi bili u identičnim položajima kao na slici od prije dvije godine.
Viralne fotografije Hameneijeva tijela izvučenog iz ruševina također je primjer manipulacije, a spasioci su na njoj imali dvostruke udove.
"Jedna lažna fotografija koja mi je upala u oči tvrdila je da prikazuje visokog iranskog zapovjednika kako hoda Teheranom prerušen u ženu kako bi izbjegao potencijalni atentat", kaže Shayan Sardarizadeh, viši novinar tima BBC Verify, koji koristi forenzičke tehnike za potvrdu informacija i provođenje vizualnih istraga. "Ulica, zgrada u pozadini i okolina, sve je to izgledalo kao realistična scena u Teheranu."
Sardarizadeh kaže da umjetna inteligencija sada čini velik dio svih dezinformacija koje tim razotkriva i da se količina povećava. Primjerice, u prvih nekoliko tjedana rata u Gazi ili Ukrajini većina lažnih objava koje je tim vidio bili su stari ili nepovezani videozapisi ili prenamijenjene snimke videoigara. Sada je gotovo polovica, ako ne i više, svih viralnih laži koje sada prate i razotkrivaju generativna umjetna inteligencija.
To je dijelom potaknuto lakoćom kojom svatko sada može generirati realističan video ili fotografiju. No, druga ogromna promjena je u tome što ljudi koriste umjetnu inteligenciju za sažimanje vijesti ili odgovaranje na pitanja umjesto da idu izravno na originalni izvor. Googleovi AI sažeci i Grok predstavljeni su široj međunarodnoj javnosti tek sredinom 2024. i brzo su se proširili: 65 % ljudi izvještava da redovito vide AI sažetke vijesti ili drugih informacija, a udio ljudi koji kažu da koriste generativnu umjetnu inteligenciju za dobivanje informacija udvostručio se u protekloj godini, piše The Guardian. Međutim, često su AI sažeci potpuno pogrešni. Međunarodna studija iz 2025. otkrila je da je otprilike polovica svih AI generiranih sažetaka imala barem jedan značajan problem s izvorom ili točnošću, a kod nekih alata, poput popularnog sučelja Gemini, taj se postotak popeo na 76 %.
U slučaju iranskog rata stručnjaci za provjeru činjenica kažu da svjedoče poplavi takvog obmanjujućeg materijala.
Dio problema je način na koji funkcioniraju LLM AI modeli (kao što su Grok, ChatGPT i Gemini). Na vrlo osnovnoj razini to su probabilistički jezični modeli koji konstruiraju rečenice dio po dio na temelju toga koja sljedeća riječ ima najveću vjerojatnost da bude prikladna. Iako taj proces proizvodi uvjerljive rečenice koje zvuče autoritativno, to ne znači da je AI zapravo analizirao materijal ispred sebe.
"Umjetna inteligencija doživljava se kao sveznajući entitet s pristupom svemu, ali bez emocija", kaže Tal Hagin, analitičar otvorenog koda za obavještajne podatke i edukator medijske pismenosti te dodaje da su joj zato ljudi skloni vjerovati. "Ono što koristite zapravo je vrlo napredan stroj vjerojatnosti, a ne kutija istine."
Problem je složeniji zbog autoritativnog načina na koji umjetna inteligencija obično predstavlja svoje nalaze. Generirat će detaljna "izvješća", uključujući imena i datume, reference i izvore, što sugerira duboko istraživanje i razumijevanje, ali zapravo može biti obmanjujuće.
U slučajevima poput Minaba, gdje je materijal dokazivo stvaran, istraživači se boje da val umjetne inteligencije sije sumnju da se zločin uopće dogodio. "Kako se tehnologija nastavlja poboljšavati, mogla bi toliko zamutiti vodu da se videozapisi i slike stvarnih zločina odbacuju kao lažni ili umjetna inteligencija", kaže Sardarizadeh.
"Već sam vidio primjere ovoga u vezi sa sukobima u Gazi i Ukrajini", kaže.
Za one koji su izgubili voljene osobe, odgovornost riskira biti zasjenjena mnoštvom dezinformacija, sumnje i nedoumica.