Čini se kako su modeli umjetne inteligencije sličniji ljudima nego što bismo to mogli zamisliti. Naime, ni oni nisu imuni na malo "ljenčarenja".
Povijesni izbori u Mađarskoj
Pobjednički govor Petera Magyara: "Uspjeli smo. Oslobodili smo Mađarsku"
PORUKA IZ MOSKVE
Orbanov poraz izazvao reakcije u Rusiji, oglasio se Putinov suradnik: "Ovo će samo ubrzati..."
u tijeku
Rat na Bliskom istoku
Američka vojska počinje blokadu iranskih luka: Pogledajte što se dogodilo s cijenama nafte
Anthropicov trenutačni model umjetne inteligencije, Claude 3.5 Sonnet, pripremio je pravo iznenađenje tijekom demonstracije svojih sposobnosti. Dok su programeri pokušavali snimiti demonstraciju Claudeovih mogućnosti kodiranja, AI je imao druge ideje.
Pročitajte i ovo
Novi skok u umjetnoj inteligenciji
Anthropic želi da njihov AI agent kontrolira vaše računalo
Kako se vidi u videu koji su objavili, Claude u jednom trenutku prestaje s kodiranjem, otvara Googleov pretraživač i pretražuje fotografije Nacionalnog parka Yellowstone. Da se radi o čovjeku, rekli bismo da mu je dosadilo pisati kod, te je potražio malo razbibrige.
U drugom primjeru programeri su snimali što se sve događa na ekranu, a Claude je zaustavio snimanje i uzrokovao gubitak svih snimaka. Iz Anthropica ističu kako vjeruju da taj postupak nije bio namjeran, već da je riječ o grešci.
S obzirom na to da Anthropic reklamira Claude 3.5 Sonnet kao "AI agenta koji može koristiti računala na isti način na koji to ljudi čine", odnosno da može "preuzeti kontrolu nad radnom površinom i raditi umjesto čovjeka", činjenica da se koji put poželi odmoriti možda i nije najbolja reklama.
Pročitajte i ovo
Novo istraživanje
Hoćete li vjerovati tehnologiji ili ljudima? Neki AI modeli već imaju moć uvjeravanja poput ljudi
Jer očito je da je Claude još daleko od savršenog.
Iako je to trenutačno stanje tehnologije, Claudeovo korištenje računala ostaje sporo i često podložno pogreškama, rekli su iz tvrtke. Postoje brojne radnje koje ljudi rutinski rade na računalima (povlačenje, zumiranje i tako dalje) koje Claude još ne može izvesti.
Zanimljivo je da su iz Anthropica objavili pogreške koje su većinom bezopasne, no logično je postaviti pitanje - griješi li i u ozbiljnijim situacijama? Primjerice, što kad Claude umjesto da piše kod, počne otvarati korisnikove društvene mreže i objavljivati statuse?
Budući da korištenje računala može pružiti novi vektor za poznatije prijetnje kao što su spam, dezinformacije ili prijevare, zauzimamo proaktivan pristup za promicanje njegove sigurne implementacije, ističu iz Anthropica.
Kako dodaju, to uključuje implementaciju novih klasifikatora za prepoznavanje kada se umjetna inteligencija koristi za obavljanje označenih aktivnosti, poput objavljivanja na društvenim medijima i pristupanja vladinim web-stranicama.
Nadajmo se i da će smisliti način da zaustave Claudea da mu misli lutaju.