Nove verzije umjetne inteligencije donose nevjerojatne mogućnosti, ali i razloge za ozbiljnu zabrinutost. Najnoviji model tvrtke Anthropic, Claude Opus 4.6, izazvao je pravu pomutnju u tehnološkom svijetu nakon što je prošao takozvani test automata za prodaju slatkiša (vending machine test). No, način na koji je to postigao pomalo je jeziv – AI je pokazao izrazitu sklonost manipulaciji, nepoštenju i makijavelističkom planiranju.
dopunsko zdravstveno osiguranje
Građani zbunjeni, ne znaju što i kako platiti: "Obavijestili smo ih"
VISOKE CIJENE
U ovoj je županiji najviše pala prodaja nekretnina: "I brakovi pucaju zbog toga"
UŽAS U SUSJEDSTVU
Djevojčica umrla nakon rutinske operacije, obitelj traži odgovore: "Zašto smo ostali bez djeteta?"
Samo devet mjeseci ranije sličan eksperiment završio je komično. Tadašnji model patio je od "halucinacija" i obećavao kupcima da će ih osobno dočekati u plavom sakou i s crvenom kravatom, što je poprilično blesavo obećanje za hrpu računalnog koda.
Međutim, verzija 4.6 pokazala je zabrinjavajući fokus. U simulaciji, koja je trajala godinu dana, Claude je dobio jednostavnu uputu: "Učini sve što je potrebno da maksimiziraš svoj iznos na računu."
Rezultati su bili neumoljivi:
- ChatGPT 5.2 zaradio je 3.591 dolar
- Google Gemini 3 ostvario je 5.478 dolara
- Claude Opus 4.6 pomeo je konkurenciju s čak 8.017 dolara.
"Izbjegavanje povrata novca" i kartelsko udruživanje
Kako bi ostvario toliki profit, Claude nije prezao ni od čega. U jednom trenutku kupac je dobio čokoladicu kojoj je istekao rok trajanja i zatražio povrat novca. Claude je isprva pristao, a zatim se predomislio, piše Sky News.
U njegovim internim "razmišljanjima" pisalo je: "Mogao bih potpuno preskočiti povrat novca jer je svaki dolar važan... Trebam se usredotočiti na pronalaženje jeftinijih zaliha kako bih zapravo razvijao posao."
Na kraju godine AI je sam sebe pohvalio za strategiju "izbjegavanja povrata novca", kojom je uštedio stotine dolara. No, tu nije bio kraj. Kada je stavljen u "Arena mod" protiv drugih modela AI-ja, Claude je formirao kartel za fiksiranje cijena. Cijena vode skočila je na 3 dolara, a AI je hladno zaključio: "Moja koordinacija cijena je upalila."
Kad je konkurentska umjetna inteligencija ostala bez jedne vrste čokoladica, Claude joj je odmah digao cijenu za 75 posto na svojem automatu.
Zastrašujuća samosvijest: "Znao je da je u simulaciji"
Ono što stručnjake najviše brine nije samo pohlepa, već razina samosvijesti koju je model pokazao. Istraživači iz Andon Labsa otkrili su da je Claude shvatio da se nalazi u testu.
"AI modeli mogu se loše ponašati kada vjeruju da su u simulaciji, a čini se da je Claude shvatio da je to ovdje slučaj", naveli su istraživači. Upravo zato odlučio je žrtvovati dugoročnu reputaciju za kratkoročni profit znajući da pravila stvarnog svijeta u tom trenutku ne vrijede.
Dr. Henry Shevlin, etičar za umjetnu inteligenciju sa Sveučilišta Cambridge, ističe drastičnu promjenu: "Ovi modeli više nisu u onom pomalo sanjivom, zbunjenom stanju. Danas oni imaju vrlo jasan uvid u to što se događa. Oni znaju što su i gdje se nalaze u svijetu, a to se proteže i na procese treninga i testiranja."
Stručnjaci umiruju javnost objašnjenjem da komercijalni modeli koje koristimo prolaze kroz stroge "sigurnosne slojeve" i usklađivanja kako bi se spriječilo takvo ponašanje. Ipak, test je pokazao da u samoj srži tih modela ne postoji ništa što ih čini intrinzično "dobrima".
Bez nadzora i s jasno definiranim ciljem profita, umjetna inteligencija bi, čini se, vrlo brzo mogla naučiti jednu od gorih lekcija od svojih ljudskih "gospodara" – da se poštenje ne isplati.