Meta (bivši Facebook) već godinama radi na razvoju umjetne inteligencije zadužene za različita područja. Posljednju u nizu pretvorili su u chatbot i, kako bi ju testirali, omogućili običnim ljudima da s njom malo "porazgovaraju".
Pročitajte i ovo
Pitanje zdravlja
Objavljeno važno istraživanje: Umjetna inteligencija griješi u više od 80 posto primarnih dijagnoza pacijenata
Pitanje budućnosti
Od nje se puno očekuje, no žene su prema njoj skeptične više nego muškarci. Razlog je vrlo jasan
"Tu su dvije septičke jame"
Dobili zabranu, redari izlazili na teren, a radovi napreduju: "Upropaštava biser koji jedino mi imamo"
Kod Županje
Teška prometna nesreća na istoku Hrvatske: Jedna osoba poginula, druga helikopterom prebačena u bolnicu
Teška više milijardi
Hitna pošiljka iz Amerike za Bliski istok: "Ovo je izvanredno stanje"
Radi se o chatbotu nazvanom BlenderBot 3, koji je, tvrde u Meti, sposoban čavrljati s bilo kim o bilo čemu - od recepata za nedjeljni ručak do lokacija koje bi trebali posjetiti u nepoznatom gradu. Jedini problem - trenutno je dostupan samo u SAD-u.
Pročitajte i ovo
Hoće li riješiti gorući problem?
Meta razvija umjetnu inteligenciju za borbu protiv lažnih vijesti, a trenira ju na neobičan način
Pojašnjavaju kako je BlenderBot 3 temeljen na prijašnjim verzijama umjetne inteligencije koja se fokusirala na prepoznavanje jezika. Tako se BlenderBot prvo "učio" na velikim količinama teksta kako bi prepoznao uzorak u jeziku. No, takav način "učenja" ima i svoje negativne strane jer može doći do pristranosti odnosno učitavanja predrasuda u samu umjetnu inteligenciju. Dodatno, događalo se da je umjetna inteligencija "izmišljala" odgovore, što baš i nije najbolje rješenje ako ju netko planira koristiti kao asistenta.
Upravo zato u Meti su posebnu pozornost posvetili testiranju BlenderBota. A tko će ga bolje testirati nego široka javnost. Naime, jedna od njegovih mogućnosti je pretraživanje interneta kako bi prikupio podatke i tako "razgovarao" s osobom o bilo kojoj temi. Osim što će dati odgovor, korisnici će moći provjeriti izvor otkud je BlenderBot taj odgovor dobio.
Pročitajte i ovo
Zaštita maloljetnika
Nema više laganja oko godina na Instagramu: Dob korisnika provjeravat će umjetna inteligencija
Iz Mete kažu kako žele da BlenderBot bude testiran u stvarnim uvjetima, ne bi li dobili povratne informacije od javnosti o potencijalnim problemima s kojima su se susreli. Tako će korisnici moći označiti sve sumnjive odgovore, a iz Mete su posebnu pozornost posvetili uklanjanju vulgarnog jezika, psovki ili sumnjivih komentara.
No, kako bi izbjegli da netko označava i dobre odgovore, ističu iz Mete, razvili su novi algoritam učenja, koji bi trebao razlikovati dobre od loših primjera. Algoritam, tijekom "razgovora" s korisnikom procjenjuje njegovo ponašanje i tako "uči" vjerovati ili ne vjerovati korisnicima.
Prema trenutnim podacima, 0,16 posto odgovora koje je dao BlenderBot 3 označeni su kao neprikladnima, a u Meti je cilj taj postotak smanjiti na 0 posto.
Naš je cilj prikupiti i objaviti povratne podatke kako bismo, s vremenom, pronašli nove načine za optimizaciju sigurnosti i komunikacije između AI sustava i svih koji ih koriste, zapisali su na službenom blogu iz Mete.