Alati pogonjeni umjetnom inteligencijom koji stvaraju nove slike kombinirajući različite fotografije, mogu biti zabavni i korisni u nekim slučajevima. No, stručnjaci upozoravaju na eksploziju uznemirujuće realističnih slika koje prikazuju seksualno iskorištavanje djece.
PRIJETI ESKALACIJA
VIDEO Izraelci pokrenuli nove napade na Teheran pa objavili da su ubili 1500 Iranaca. Porastao i broj poginulih američkih vojnika
Dobro je znati
Koje su najsigurnije zemlje za život u slučaju trećeg svjetskog rata: Imamo popis
USKO GRLO SVIJETA
Iranska "nuklearna opcija": Ako to provedu, udarit će Trumpa tamo gdje je najslabiji
Kako donosi Washington Post, alati generativne umjetne inteligencije pokrenuli su "predatorsku utrku u naoružanju" na pedofilskim forumima. Naime, dovoljno je upisati prave riječi u alat i u nekoliko sekundi stvara se prilično realistična fotografija koja spada u kategoriju dječje pornografije.
Pročitajte i ovo
Kršenje pravila mreže
Na udaru influencerice i poznate osobe: Twitterom se proširila deepfake pornografija
Tisuće takvih slika već je pronađeno na forumima dark weba, a pojavili su se čak i vodiči kako stvoriti "vlastitu kolekciju".
Direktorica za podatkovne znansoti u neprofitnoj grupi za sigurnost djece, Thorn, Rebecca Portnoff, upozorava kako se za stvaranje takvog sadržaja koriste najrazličitije fotografije djece. Činjenica da su fotografije stvorene pomoću umjetne inteligencije policiji i istražiteljima uvelike otežavaju pronalazak stvarnih žrtvi kojima je nužno što prije pomoći.
Problem je i što su filteri podešeni za blokiranje dječje pornografije na internetu dizajnirani samo za zaustavljanje poznatih fotografija, dok im ove umjetno nastale prolaze "ispod radara".
Pitanje je da li takav sadržaj uopće krši zakone o zaštiti djece, kakvi postoje u većini zemalja diljem svijeta, jer su na njima prikazana djeca koja zapravo - ne postoje.
Stoga su se stručnjaci okrenuli za pomoć tvrtkama koje stoje iza takvih alata. Stable Diffusion vodi alat Stability AI, koji je čini se, omiljen kod pedofila jer se temelji na otvorenom kodu. Iako su se iz Stable Diffusiona oglasili ističući da zabranjuju stvaranje slika seksualnog zalostavljanja djece i pomažu u istragama, naglasili su i kako su uklonili eksplicitan materijal iz svojih baza podataka, smanjujući tako mogućno za stvaranje pornografskog sadržaja.
Pročitajte i ovo
Emocionalno su slomljeni
Razočaranost korisnika koji su stvorili romantične veze s AI-em: Avatari s njima više ne žele razgovarati o seksu
No, licenca otvorenog koda omogućuje korisnicima koji znaju i žele, da s nekoliko redova koda zaobiđu ta ograničenja.
S druge strane, tvrtke koje stoje iza drugih poznatih alata kao što su Dalle-E i Midjourney, kontroliraju što se njihovim alatima stvara i zabranuju seksualni sadržaj.
Privatne tvrtke ne žele sudjelovati u stvaranju najgore vrste sadržaja na internetu, ističe Kate Klonick, izvanredna profesorica prava na Sveučilištu St. John's. Ono što me najviše plaši je otvoreni kod ovih alata, gdje možete imati pojedince ili organizacije koje ih koriste i mogu jednostavno nestati.
S druge strane sve je više onih koji pokušavaju naći tehnološko rješenje koji bi riješio problem umjetno stvorene dječje pornografije, ali i lažnih pornografskih uradaka koje je stvorila AI.
Jedan od prijedloga je upisivanje "nevidljivog" koda u svaku umjetno stvorenu fotografiju, koja bi identificirala njenog originalnog kreatora. No, da bi tako nešto funkcioniralo potrebna je podrška cijele industrije - kako onih koji stvaraju takve alate i njihove baze podataka, tako i onih koji bi trebali omogućiti razlikovanje između umjetno stvorenih fotografija i "pravih".
Pročitajte i ovo
Bez njihova znanja i pristanka
Stručnjaci upozoravaju na alarmantnu situaciju: Gameri ostali u šoku kad su otkrili da su završili u pornićima
Za sad se tako nešto čini kao nemoguća misija.
Izvor: Washington Post