Podigao je tužbu

Norvežanin u šoku nakon razgovora s AI: ChatGPT tvrdi da je ubio svoju djecu i završio u zatvoru

Lažne vijesti, ilustracija Foto: Getty Images
Teško je zamisliti kako se osjećao nakon što je vidio brutalan odgovor koji mu je dala umjetna inteligencija.

Jedan od problema umjetne inteligencije, odnosno AI chatbotova jest tzv. haluciniranje, odnosno izmišljanje informacija. U nekim slučajevima takvo izmišljanje može biti bezazleno, dok u nekim slučajevima može biti iznimno opasno. S obzirom na to da takve halucinacije nisu neuobičajene, uz ChatGPT stoji i upozorenje kako ovaj chatbot može raditi greške pa je važne informacije potrebno dodatno provjeriti zbog takvih potencijalnih grešaka.

Pročitajte i ovo Bitna pitanja Zašto umjetna inteligencija "halucinira" podatke i može li se taj problem nekako riješiti?

A koliko opasne mogu biti takve greške, na svom je primjeru naučio Norvežanin Arve Hjalmar Holmen.

On je od ChatGPT zatražio da mu da informacije o njemu, a odgovor koji je dobio ga je šokirao. Naime, OpenAI-jev chatbot napisao mu je da on ubio svoja dva sina, dok je trećeg pokušao ubiti. ChatGPT je naglasio kako je taj zločin šokirao lokalnu zajednicu i cijelu naciju te je privukao veliku pažnju medija.

Najstrašnije je…

Teško je i zamisliti kako se ovaj muškarac mogao osjećati kada je pročitao takve stvari o sebi, a pogotovo što je umjetna inteligencija točno navela neke stvari - poput broja njegova djece, razlike u njihovim godinama te grada u kojem je živi. Najstrašnija je sama sama činjenica da bi netko mogao to pročitati i pomisliti da je istina, komentirao je Holmen za BBC.

Odgovor ChatGPT-a Foto:Noyb

On je kontaktirao norvešku agenciju za zaštitu osobnih podataka i zatražio da se OpenAI kazni, dok je Europski centar za digitalna prava (Noyb) u njegovo ime podnio tužbu, uz naglasak kako je odgovor koji dobio ne samo klevetnički, već se zbog korištenja točnih osobnih podataka krše pravila EU o zaštiti podataka.

Pročitajte i ovo Nova studija Provedeno istraživanje točnosti AI tražilica: Rezultati su prilično iznenađujući

Usprkos činjenici što se OpenAI ograđuje od potencijalnih grešaka i halucinacija, iz Noyba kažu kako to nije dovoljno jer umjetna inteligencija ne može tek tako širiti lažne informacije, a pogotovo ne ovako ozbiljne i strašne.

Slučajevi ovakvog izmišljanja umjetne inteligencije nisu rijetki i događaju se svim kompanijama, ne samo OpenAI-u. Dovoljno se samo sjetiti Googlea i halucinacija njihove AI zbog koje je vrijednost kompanije pala za više od 100 milijuna dolara, a nedavno je zbog istih problema Apple stopirao svoju opciju baziranu na umjetnoj inteligenciji koja je sažimala naslove više članaka u jednu obavijest. AI je nekoliko puta pogriješila pa su korisnicima slali obavijesti s lažnim vijestima.