Anthropicov alat umjetne inteligencije pod nazivom Claude korišten je u operaciji američke vojske usmjerenoj na hvatanje bivšeg venezuelskog predsjednika Nicolása Madura, što dodatno pokazuje koliko modeli umjetne inteligencije dobivaju na važnosti unutar Pentagona, tvrde izvori upoznati s tim slučajem.
Mnogi otkopavali automobile
FOTO Susjede zameo snijeg: Snažan vjetar rušio stabla i trgao krovove
Cijene idu u nebo
Svi ga jedu, a od cijene boli glava: Kad vide koliko košta u Beču, mnogima je muka
Nekima je dosta
Prijeti raspad koalicije, oglasio se HDZ
Misija usmjerena na Madura i njegovu suprugu navodno je uključivala bombardiranje više lokacija u Caracasu prošlog mjeseca. Istodobno, smjernice o korištenju Anthropica izričito zabranjuju primjenu Claudea za poticanje nasilja, razvoj oružja ili provođenje nadzora.
"Ne možemo komentirati je li Claude, ili bilo koji drugi model umjetne inteligencije, korišten u bilo kojoj specifičnoj operaciji, tajnoj ili ne", izjavio je glasnogovornik Anthropica.
"Svaka upotreba Claudea, bilo u privatnom sektoru ili u vladi, mora biti u skladu s našim pravilima korištenja, koja jasno određuju kako se model može primjenjivati. Usko surađujemo s partnerima kako bismo osigurali usklađenost", poručili su, piše Wall Street Journal.
Američko Ministarstvo obrane odbilo je komentirati navode.
Claude je u operaciji implementiran kroz partnerstvo Anthropica s podatkovnom tvrtkom Palantir Technologies, čije alate redovito koriste Ministarstvo obrane i savezne sigurnosne agencije, navode isti izvori.
Nakon akcije zaposlenik Anthropica navodno je pitao kolegu u Palantiru na koji je način Claude korišten tijekom operacije. Glasnogovornik Anthropica poručio je da tvrtka nije razgovarala o korištenju Claudea u konkretnim operacijama ni s jednim industrijskim partnerom, uključujući Palantir, osim u okviru rutinskih rasprava o strogo tehničkim pitanjima.
"Anthropic je predan primjeni napredne umjetne inteligencije u svrhu podrške nacionalnoj sigurnosti SAD-a", dodao je glasnogovornik.
Zabrinutost unutar Anthropica o potencijalnoj uporabi Claudea u vojnim operacijama potaknula je dužnosnike administracije da razmotre raskid ugovora s tvrtkom, vrijednog do 200 milijuna dolara, izvijestio je ranije Wall Street Journal.
Anthropic je bio prvi developer AI modela koji je Ministarstvo obrane koristilo u tajnim operacijama. Moguće je da su u operaciji u Venezueli za zadatke koji nisu tajnu korišteni i drugi AI alati. Takvi se sustavi mogu primjenjivati za širok raspon zadataka od sažimanja dokumenata i analize podataka do upravljanja autonomnim dronovima.
Za tehnološke tvrtke koje razvijaju umjetnu inteligenciju vojno usvajanje njihovih alata predstavlja važan poticaj i argument pred investitorima koji procjenjuju njihove visoke tržišne valuacije.
Izvršni direktor Anthropica Dario Amodei i drugi čelnici industrije javno su govorili o moći svojih modela, ali i o rizicima koje oni mogu predstavljati za društvo. Amodei se istaknuo pozivima na snažniju regulaciju i uvođenje zaštitnih mehanizama kako bi se spriječile zlouporabe umjetne inteligencije. Unatoč tomu, tvrtka usmjerena na sigurnost, kao i druge u sektoru, suočila se s odlascima zaposlenika koji su tvrdili da se prioritet daje rastu i komercijalnom uspjehu, a ne odgovornom razvoju tehnologije.
Na događaju u siječnju, na kojem je objavljeno da će Pentagon surađivati s tvrtkom xAI, američki ministar obrane Pete Hegseth izjavio je da Pentagon neće koristiti modele umjetne inteligencije koji ne podržavaju vojne operacije. Prema pisanju Wall Street Journala, ta je izjava bila povezana s razgovorima koje su dužnosnici administracije vodili s Anthropicom.
Ugovor vrijedan 200 milijuna dolara dodijeljen je Anthropicu prošlog ljeta. Amodei je javno izražavao zabrinutost zbog primjene umjetne inteligencije u autonomnim smrtonosnim operacijama i domaćem nadzoru – dvjema ključnim točkama prijepora u aktualnim pregovorima s Pentagonom, navode izvori upoznati s pregovorima.
Napetosti su dodatno zaoštrile odnose tvrtke s administracijom Donalda Trumpa, uključujući optužbe da Anthropic potkopava strategiju Bijele kuće o minimalnoj regulaciji umjetne inteligencije zagovarajući strože zaštitne mjere i ograničenja izvoza AI čipova.