Američka AI tvrtka Anthropic podigla je tužbu protiv administracije američkog predsjednika Donalda Trumpa, s ciljem zaustavljanja onoga što nazivaju "nezakonitom kampanjom odmazde", zbog odbijanja dopuštenja neograničene vojne primjene za Anthropicove AI tehnologije.
Vojna akcija
VIDEO Borbeni avion F-16E oborio iranski dron: Sve promatrali kupači
opalili ga i po džepu
Skupo ga stajalo mahanje iz auta: Protjeran iz Hrvatske, ne može ni u Europsku uniju
DVOSTRUKO UBOJSTVO
Svjedoci otkrili detalje užasa u Gospiću: "Kucala je na prozor i tražila mobitel. Vikala je da traži pomoć"
Anthropic je od američkih federalnih sudova zatražio da ponište odluku Pentagona o označavanju tvrtke kao "rizika za opskrbni lanac", donesenu prošlog tjedna, te da opozovu predsjedničku naredbu da zaposlenici američke državne uprave prestanu koristiti njihov chatbot Claude. Tužbe su podnesene američkom saveznom sudu u Kaliforniji i američkom saveznom žalbenom sudu u Washingtonu, pri čemu svaka od te dvije tužbe cilja na različite aspekte djelovanja vlade.
Slučaj bez presedana
"Ove radnje su bez presedana i nezakonite. Ustav ne dopušta vladi da koristi svoju ogromnu moć kako bi kaznila tvrtku zbog izražavanja stavova. Nijedan savezni zakon ne ovlašćuje radnje poduzete ovdje. Anthropic se obraća sudstvu kao posljednjem sredstvu da zaštiti svoja prava i zaustavi nezakonitu kampanju odmazde izvršne vlasti," navodi se u tužbi Anthropica koju prenosi agencija AP.
Anthropic je naglasio da je ograničio svoju tehnologiju kako bi spriječio masovno praćenje Amerikanaca i razvoj potpuno autonomnog oružja. Američki ministar obrane Pete Hegseth i drugi američki visoki dužnosnici javno su zahtijevali poštivanje "svake zakonite" primjene Claudea, upozoravajući na kazne i kritizirajući Anthropic i izvršnog direktora Daria Amodeija na društvenim mrežama.
Označavanje tvrtke kao rizika za opskrbni lanac zaustavlja obrambene projekte Anthropica, koristeći ovlasti namijenjene sprječavanju stranih prijetnji američkoj nacionalnoj sigurnosti. Prema tvrdnjama Anthropica, to je prvi put da je američka vlada koristila tu oznaku protiv domaće tvrtke. Hegsethovo pismo od 4. ožujka navodi da je to bilo nužno za zaštitu američke nacionalne sigurnosti. Trump je također najavio da savezne agencije moraju prestati koristiti Claude AI, uz iznimku dopuštenja za šestomjesečni prijelaz u vojnom sustavu, uključujući operacije u Iranu.
Pravni stručnjaci ističu da je riječ o pravnom slučaju bez presedana. "Nikada nisam vidio ovakav slučaj. Nikada ne bi palo na pamet da, kad imamo poteškoće u pregovorima, prijetimo tvrtki gotovo uništenjem", rekao je za AP Michael Pastor, bivši pravnik u gradskoj upravi New Yorka.
Mnogi AI istraživači na strani Anthropica
Anthropic naglašava da njegov AI nikada nije testiran za smrtonosno autonomno ratovanje, kao niti masovno praćenje, iako podržava zakonite vojne operacije i analizu prikupljenih obavještajnih podataka. Većina očekivanih prihoda od 14 milijardi eura Anthropicovih prihoda dolazi od komercijalnih korisnika koji koriste Claude AI za programiranje i druge zadatke, s više od 500 klijenata koji svaki Anthropicu plaćaju najmanje milijun eura godišnje.
Tvrtka tvrdi da radnje Trumpove administracije ugrožavaju ugovore, ekonomsku vrijednost i ugled, dok istovremeno povećavaju popularnost Claudea nad konkurentima poput ChatGPT-a i Geminija. Unutarnja neslaganja u OpenAI-u zbog ugovora s Pentagonom, pad popularnosti ChatGPT-a u SAD-u te javna podrška AI stručnjaka, uključujući Jeffa Deana iz Googlea, dodatno ističu važnost stava Anthropica.
"Američkoj nacionalnoj sigurnosti ne doprinosi nepromišljeno označavanje američkih tehnoloških vojnih partnera kao 'rizikom za opskrbni lanac', kao niti sprječavanje javne rasprave o sigurnosti AI-a,’ navedeno je u sudskom podnesku više od 30 AI istraživača, u prilog Anthropica, prenosi agencija AP.
Anthropic zaključuje da je sudska revizija nužna "za zaštitu našeg poslovanja, naših klijenata i partnera," istovremeno potvrđujući svoju predanost sigurnosti umjetne inteligencije i pozitivnim ishodima te tehnologije za čovječanstvo.