Obavijesti Video Pretražite Navigacija
Svatko može biti žrtva

Nikad nije bilo lakše napraviti deepfake pornografiju, na meti su žene, ali i djeca: "Kad sam vidjela svoj video, počela sam povraćati"

Deep fake tehnologija
Deep fake tehnologija Foto: Getty Images
Kada netko spomene deepfake, uglavnom se prvo sjetimo izmanipuliranih videa i slika političara, ne zaboravimo slavni primjer Donalda Trumpa našminkanog u klauna. Ipak, 96 posto takvog sadržaja zapravo je pornografija, a žrtva može biti bilo tko čije slike autor videa nađe.

Donedavno je za izradu realistične deepfake pornografije bila potrebna računalna stručnost. Međutim, novi širokodostupni programi i alati promijenit će to zauvijek. To bi moglo prouzročiti val uznemiravanja žrtava, koje su najčešće žene, ali zapravo može biti bilo tko. Za nekoliko godina nikoga ne bi trebalo čuditi ako ugleda svoje lice u videu eksplicitnog sadržaja. Može li se tome stati na kraj ili se barem uvesti neke regulacije?

Ako netko danas želi uz pomoć umjetne inteligencije napraviti lažni video ili fotografije, dovoljno mu je otići u Google Play ili Apple Store i skinuti jednu od aplikacija za face swap. Istraživački laboratoriji Silicijske doline natječu se tko će proizvesti uspješniji model za generiranje slika, a svoje kodove neki od njih učinili su dostupnima javnosti. Iako su velike kompanije stavile određene restrikcije na kreiranje videa uz pomoć AI-a, svatko tko preuzme njihov kod može ga izmijeniti i koristiti bez ograničenja.

Od 2019. 96 posto deepfake sadržaja bila je pornografija, prema analizi tvrtke DeepTrace Technologies, a gotovo su svi prikazivali žene. Njihova prisutnost je otada narasla, a u međuvremenu nije osmišljena nikakva pravna regulacija koja bi mogla zaštititi žrtve. Drugim riječima, gotovo je nemoguće spriječiti nastajanje ovakvog sadržaja negdje u zakucima interneta, a pitanje je kako bi se uopće moglo kazniti počinitelje.

Pročitajte i ovo Ilustracija Osveta bivšeg partnera Život joj je pretvorio u pakao otvaranjem lažnih profila: Doznajte kako stati na kraj internetskom zlostavljanju

Jedan od najvećih problema je što unatoč sve većoj raširenosti deepfakea za njega većina populacije ne zna. Oslikava to i primjer američke učiteljice koja je izgubila posao nakon što su roditelji njezinih učenika otkrili njezin deepfake pornouradak. Uzalud im je objašnjavala o čemu je riječ, nisu joj povjerovali.

Najpoznatiji i možda najstrašniji slučaj korištenja umjetne inteligencije u svrhu ucjene, zastrašivanja i manipulacije je onaj istraživačke novinarke Rane Ayyub - "najzlostavljanije žene u Indiji" iz 2019.

Grupno silovanje osmogodišnje djevojčice iz Kašmira zgrozilo je svijet, a Nacionalistčka stranka Bhartiya Janata pružila je podršku optuženima, o čemu je Ayyub govorila za BBC i druge svjetske medije.

Kako bi joj se osvetili, ljudi bliski vlasti počeli su otvarati njezine lažne profile na Twitteru i pisati kako mrzi Indiju i Indijce, kako podržava silovanje. To je nije zaustavilo. Sve je kulminiralo kada je jednog dana dobila video koji prikazuje ženu s njezinim licem u seksualnom činu.

Pročitajte i ovo Slika nije dostupna Nisu ni striptizete ni porno glumice Plaćaju im da bi ih gledali, ali bez fizičkog kontakta: Dvije Hrvatice opisale svoj posao na stranici s eksplicitnim sadržajem

"Počela sam povraćati. Jednostavno nisam znala što da radim. Znala sam da je ovo velika stvar u zemlji poput Indije. Nisam znala kako reagirati, samo sam počela plakati", napisala je Ayyub u svojoj ispovijesti za Huffington Post.

Video je bio otvoreni poziv na linč, dozvola da se svatko može prema njoj ponašati kako god želi. Dio ljudi nije joj vjerovao kako to nije stvarno ona, dio je širio novi val mizoginih informacija. Namjerno ponižavanje i maltretiranje, kao i insinuacije o njezinu promiskuitetu i seksualnim odnosima s raznim javnim ličnostima, nastavili su se mjesecima.

Pročitajte i ovo Ena Friedrich i Josipa Karimović "Nešto što cijeli svijet radi" Skida se za novac na popularnoj platformi: "Počeli smo doslovno s rukicama negdje i onda je započelo onako kako je sada"

Otkako se dogodio taj strašni slučaj, neke zemlje uvele su zabranu stvaranja deepfake pornografije, ali baš kao i fake news, teško ih je, ako ne i nemoguće kontrolirati. Zato se ključno informirati i širiti informacije koliko je jednostavno proizvesti takav sadržaj, koliko realistično izgleda i koliko je malo mogućnosti da se zabrani njegovo dijeljenje. U tom bi slučaju žrtva, čak i ako je potresena onim što vidi, mogla samo odmahnuti rukom jer bi javnost, poslodavci i obitelj znali o čemu je riječ i to ne bi imalo posljedica na njezin život.

Još brže do
svakodnevnih vijesti.

Preuzmi novu DNEVNIK.hr aplikaciju
Još aktualnosti
Još vijesti
Pretražite vijesti

Budite u tijeku s najnovijim događanjima

Obavijesti uključene