Koristite li alate poput ChatGPT-a ili Geminija u svakodnevnom životu? A pričate li s njima?
Rat na Bliskom istoku
VIDEO Teheran pod žestokim udarom, Izrael nesmiljeno udara, SAD priznao prve gubitke. Rusija upozorila: "Još uvijek nismo vidjeli dokaze"
Nova akcija
U tijeku su uhićenja i pretresi! Procurilo tko je na meti policije i USKOK-a
PRIJETI ESKALACIJA
VIDEO Izraelci pokrenuli nove napade na Teheran pa objavili da su ubili 1500 Iranaca. Porastao i broj poginulih američkih vojnika
Otkako je OpenAI predstavio svoju posljednji inačicu popularnog chatbota pogonjenog umjetnom inteligencijom, ChatGPT, koja ima mogućnost verbalnih upita i odgovora, pojavila se zabrinutost da bi to, nekima, moglo zamijeniti ljudsku interakciju.
Sad su i iz OpenAI-ja priznali kako bi se ljudi mogli početi previše oslanjati na ChatGPT za druženje, a to bi potencijalno moglo dovesti do ovisnosti.
Kako je navedeno u izvješću OpenAI-ja o sigurnosnoj procjeni samog alata, navedeno je da ChatGPT-ov napredni glasovni način rada zvuči veoma realistično. Uz to što reagira u stvarnom vremenu, proizvodi zvukove koje i ljudi proizvode tijekom razgovora, a ujedno se i prilagođava emocionalnom stanju sugovornika odnosno korisnika.
Pročitajte i ovo
Biste li glasali za njega?
Ovaj kandidat za gradonačelnika ne jede, ne spava, ali zato donosi odluke u manje od sekunde
U OpenAI-u su zabrinuti da bi se scenarij, kakav smo imali prilike vidjeti u filmu "Ona" iz 2013., u kojem se korisnik zaljubljuje u digitalnu asistenticu pogonjenu umjetnom inteligencijom, sad mogao preslikati i na stvarnost. Naime, navode, primijetili su kako korisnici razgovaraju s ChatGPT-om na način koji izražava "zajedničke veze ".
Korisnici bi mogli uspostaviti društvene odnose s umjetnom inteligencijom, smanjujući njihovu potrebu za ljudskom interakcijom. To bi potencijalno koristilo usamljenim pojedincima, ali bi moglo imati negativan utjecaj na zdrave odnose, ističe se u izvješću.
Zabrinutost izaziva i mogućnost da korisnici počnu više vjerovati alatu, jer zvuči uvjerljivo kad izbacuje informacije. Što, s obzirom na to da umjetna inteligencija nije savršena i često zna izbaciti krive podatke kao odgovor na upit, nije smjer kojim bi trebali ići.
U izvješću se navodi i velik rizik koji okružuje sam razvoj umjetne inteligencije - od tehnoloških tvrtki koje, u želji da što prije predstave svoje novitete, pretjeruju s opisima njihovih mogućnosti, a da pri tome ne razmišljaju o svim mogućim načinima na koje je te mogućnosti moguće upotrijebiti.
Pročitajte i ovo
Projekt Strawberry
OpenAI radi na puno naprednijem modelu umjetne inteligencije: "Želimo da naši modeli vide i razumiju svijet više kao mi"
Dodaju i kako više nije rijetkost da ljudi chatbotove pogonjene umjetnom inteligencijom doživljavaju kao stvarne osobe i stvaraju svojevrsne romantične veze s njima.
To pak utječe na normalne društvene interakcije s drugim ljudima. A to je još jedan razlog za zabrinutost u OpenAI. Iako navode kako su predani "sigurnoj izgradnji umjetne inteligencije" te planiraju "nastaviti proučavati potencijal emocionalnog oslanjanja korisnika na njihove alate", očito je da ni oni nisu u potpunosti razmislili o tome kako će njihova nova, naprednija, inačica chatbota utjecati na ljude i oni na nju.