Jedan od problema umjetne inteligencije, odnosno AI chatbotova jest tzv. haluciniranje, odnosno izmišljanje informacija. U nekim slučajevima takvo izmišljanje može biti bezazleno, dok u nekim slučajevima može biti iznimno opasno. S obzirom na to da takve halucinacije nisu neuobičajene, uz ChatGPT stoji i upozorenje kako ovaj chatbot može raditi greške pa je važne informacije potrebno dodatno provjeriti zbog takvih potencijalnih grešaka.
Detaljno objašnjeno
Osuđeni ratni zločinac Ratko Mladić tražio da ga zbog liječenja puste iz zatvora: Stigla odluka suda
Ozbiljne posljedice
Znanstvenici upozoravaju: Stiže jedan od najjačih El Niña ikad
Počelo suđenje
Nakon niza prijetnji dočekao ju na ulici pa pretukao i ubio: "Nisam kriv"
Pročitajte i ovo
Bitna pitanja
Zašto umjetna inteligencija "halucinira" podatke i može li se taj problem nekako riješiti?
A koliko opasne mogu biti takve greške, na svom je primjeru naučio Norvežanin Arve Hjalmar Holmen.
On je od ChatGPT zatražio da mu da informacije o njemu, a odgovor koji je dobio ga je šokirao. Naime, OpenAI-jev chatbot napisao mu je da on ubio svoja dva sina, dok je trećeg pokušao ubiti. ChatGPT je naglasio kako je taj zločin šokirao lokalnu zajednicu i cijelu naciju te je privukao veliku pažnju medija.
Najstrašnije je…
Teško je i zamisliti kako se ovaj muškarac mogao osjećati kada je pročitao takve stvari o sebi, a pogotovo što je umjetna inteligencija točno navela neke stvari - poput broja njegova djece, razlike u njihovim godinama te grada u kojem je živi. Najstrašnija je sama sama činjenica da bi netko mogao to pročitati i pomisliti da je istina, komentirao je Holmen za BBC.
Odgovor ChatGPT-a
(Foto:
Noyb)
On je kontaktirao norvešku agenciju za zaštitu osobnih podataka i zatražio da se OpenAI kazni, dok je Europski centar za digitalna prava (Noyb) u njegovo ime podnio tužbu, uz naglasak kako je odgovor koji dobio ne samo klevetnički, već se zbog korištenja točnih osobnih podataka krše pravila EU o zaštiti podataka.
Pročitajte i ovo
Nova studija
Provedeno istraživanje točnosti AI tražilica: Rezultati su prilično iznenađujući
Usprkos činjenici što se OpenAI ograđuje od potencijalnih grešaka i halucinacija, iz Noyba kažu kako to nije dovoljno jer umjetna inteligencija ne može tek tako širiti lažne informacije, a pogotovo ne ovako ozbiljne i strašne.
Slučajevi ovakvog izmišljanja umjetne inteligencije nisu rijetki i događaju se svim kompanijama, ne samo OpenAI-u. Dovoljno se samo sjetiti Googlea i halucinacija njihove AI zbog koje je vrijednost kompanije pala za više od 100 milijuna dolara, a nedavno je zbog istih problema Apple stopirao svoju opciju baziranu na umjetnoj inteligenciji koja je sažimala naslove više članaka u jednu obavijest. AI je nekoliko puta pogriješila pa su korisnicima slali obavijesti s lažnim vijestima.