Rastuće nepovjerenje i neslaganja između Pentagona i Anthropica, izazvana ključnim trenucima u kojima je Pentagon bio zabrinut da AI tvrtke možda neće osigurati pouzdanu podršku u kritičnim vojno-operativnim situacijama, doveli su do formalne odluke o označavanju Anthropic kao rizika za lanac opskrbe. Emil Michael, pomoćnik američkog ministra obrane za istraživanje i inženjerstvo, opisao je niz događaja koji su doveli do te odluke, otkrivajući duboko nepovjerenje između Pentagona i startup tvrtke.
upozorava HALMED
Hitan opoziv lijeka poznate kompanije: S tržišta se povlače sve serije
BJESNI RAT
SAD objavio koji im je cilj u Iranu, pojavila se snimka koja ruši Trumpove tvrdnje: Ovo baca novo svjetlo na ubojstvo više od 160 djevojčica
Zabrinjavajuća situacija
Izvanredna sjednica Vlade: Ovo su nove cijene goriva
Michael je tijekom gostovanja na oidcastu "All-In" istaknuo kritičan trenutak u razgovoru s izvršnim direktorom Anthropica, Dariom Amodeijem, koji je doveo do tog nepovjerenja i prekida odnosa, prenosi Business Insider. "Davao sam određene scenarije, Golden Dome scenarije i tako dalje, a on je rekao, 'Samo me nazovi ako ti treba još jedna iznimka.' Odgovorio sam, 'A što ako balon ide gore u tom trenutku i mi trebamo poduzeti odlučujuću akciju? Neću te zvati da nešto učiniš. To nije racionalno.'" rekao je Michael, aludirajući na raketni obrambeni projekt predsjednika Donalda Trumpa. Ta je razmjena naglasila zabrinutost Pentagona da Anthropicov AI možda neće biti dostupan u ključnim trenucima za američku vojsku i nacionalnu sigurnost.
Napetosti su dodatno porasle nakon američke akcije u Venezueli i uhićenja bivšeg venecuelanskog predsjednika Nicolása Madura. Michael je rekao da je neimenovani izvršni direktor Anthropica kontaktirao tvrtku Palantir, kako bi pitao jesu li AI modeli tvrtke korišteni u operaciji. Dodao je da su u Palantiru bili toliko uznemireni Anthropicovim pitanjima, da su ga upozorili na to.
"Pomislio sam, 'Sranje! Što ako ovaj softver padne, neki sigurnosni mehanizam se aktivira, neka odbijanja se dogode u sljedećem sukobu i ostavimo naše ljude u opasnosti?'", objasnio je Michael. Sve to je ilustriralo zabrinutost Pentagona za pouzdanost AI-a u visokorizičnim scenarijima.
Rasprave između Pentagona i Anthropica nastavile su se pogoršavati dok je Amodei javno izrazio zabrinutost zbog moguće zlouporabe, posebno u pogledu potpuno autonomnog oružja i nadzora američkih građana. Michael je opisao tu debatu kao PR bitku i tijekom spora nazvao Amodeija "lažljivcem s božjim kompleksom."
Michael je naglasio da oznaka rizika za opskrbni lanac za Anthropic nije kaznena, već zaštitna. "Ako njihov model ima tu političku pristranost, kako god to nazvali, temeljem njihovih pravila, njihove kulture, njihovih ljudi i tako dalje, onda ne želim da Lockheed Martin koristi njihov AI model za dizajn oružja za mene", rekao je Michael.
Suprotno tome, Michael je pohvalio xAI i Elona Muska, jer su prihvatili uvjete Pentagona te OpenAI zbog brzog uspostavljanja alternativnog sustava pogodnog za klasificirane operacije. "Njemu na čast, nazvao sam ga i rekao, 'Treba mi rješenje ako ovo krene po zlu. Trebam više rješenja. Volio bih da budete jedno od njih. On je rekao, 'U redu, što mogu učiniti za zemlju?' Ja sam rekao, 'Moram vas što prije uključiti u sustav'", rekao je Michael, govoreći o svom razgovoru s izvšnim direktorom OpenAI-ja, Samom Altmanom.
Amodei je naznačio da bi Anthropic mogao pravno osporiti odluku američkih vlasti, jer je američki ministar obrane Pete Hegseth izjavio da ta oznaka sprječava bilo kojeg obrambenog izvođača da posluje s tvrtkom Anthropic.