Odbijanje američke AI tvrtke Anthropic da njihova umjetna inteligencija bude korištena u američkim vojnim operacijama, pojačalo je napetosti te tvrtke s Pentagonom i istaknulo sumnju jesu li AI chatbotovi doista spremni za ratovanje.
Šesti dan sukoba
VIDEO Amerikanci objavili snimku snažnog udara, Izrael najavio napad: "Spasite svoje živote"
DRUŠTVENE MREŽE GORE
Srbija objasnila zašto ne preporučuje putovanje u Hrvatsku osim u krajnjoj nuždi
Drama na nebu
Iranski bombarderi bili su dvije minute udaljeni od napada na američku zračnu bazu
Claude, Anthropicov AI chatbot, u međuvremenu je nadmašio ChatGPT u preuzimanjima aplikacija za telefone u SAD-u, što pokazuje rastući interes potrošača za kompanijom koja zauzima moralni stav, ističe američka istraživačka tvrtka Sensor Tower, piše Associated Press (AP).
Past će i tužba
Prošlog petka, američki predsjednik Donald Trump naredio je vladinim agencijama da prestanu koristiti Claude, označivši ga rizikom za opskrbni lanac, nakon što je izvršni direktor Anthropica, Dario Amodei, zadržao stav etičkih mjera zaštite te tvrtke protiv korištenja njihovog AI-ja za autonomno oružje i masovan nadzor.
Anthropic namjerava tužiti Pentagon čim stigne službena obavijest o zabrani korištenja Claudea i sankcijama zbog rizika u opskrbnom lancu.
"On je izazvao ovaj kaos"
Dok su vojni stručnjaci i stručnjaci za ljudska prava pohvalili potez Amodeija, neki pak kritiziraju AI industriju zbog pretjeranog reklamiranja sposobnosti umjetne inteligencije. "On je izazvao ovaj kaos. Bili su broj jedan u promoviranju nevjerojatne pompe o mogućnostima ovih tehnologija. Sada odjednom žele biti ozbiljni. Žele ljudima reći: 'Čekajte malo. Zaista ne bismo trebali koristiti ove tehnologije u oružju'", rekla je za AP Missy Cummings, bivša vojna pilotkinja i direktorica Centra za robotiku i automatizaciju na američkom Sveučilištu George Mason.
Cummings, koja je u prosincu objavila rad u kojem poziva američku vladu da zabrani korištenje generativnog AI-a u upravljanju oružjem, objasnila je i zašto je loša ideja koristiti AI za upravljanje naoružanjem. "Ubijat ćete civile. Ubijat ćete vlastite vojnike. Nisam sigurna razumije li vojska uistinu ograničenja te tehnologije", naglasila je.
Amodei je branio etički stav svoje tvrtke. "Suvremeni AI sustavi jednostavno nisu dovoljno pouzdani da bi pokretali potpuno autonomno oružje. Nećemo svjesno pružiti proizvod koji dovodi u rizik američke vojnike i civile", izjavio je ranije.
Ljudski nadzor je ključan
Anthropic je do nedavno imao odobrenje za upotrebu u klasificiranim sustavima, surađujući s tvrtkom Palantir i drugim obrambenim američkim tvrtkama. No, Trump je objavio da te primjene moraju biti ukinute u roku od šest mjeseci.
Cummings, koja je i bivša savjetnica Palantira, naglasila je potrebu za ljudskim nadzorom. "Čovjek mora vrlo pažljivo nadzirati ove tehnologije. Možete ih koristiti za ove zadatke, ali morate provjeravati, provjeravati, provjeravati", poručila je. Napomenula je kontrast s porukama AI tvrtki, poput Anthropica, koje sugeriraju da je tehnologija "gotovo svjesna."
"Pohvalno je što je kompanija stala protiv američke vlade kako bi održala ono što smatra svojim etičkim i poslovnim odlukama, čak i suočena s potencijalno teškim političkim posljedicama", rekla je pak za AP Jennifer Huddleston iz Cato instituta, američkog think tanka.
Pobjeda za Claude, ChatGPT u problemima
I dok je Claude dobio na popularnosti zbog odluke Anthropica, OpenAI snosi posljedice zbog svog oportunističkog poteza koji je uslijedio nakon spora između Pentagona i Anthropica.
ChatGPT je suočen s porastom od 775 posto jednogodišnjih negativnih ocjena nakon što je objavio dogovor s Pentagonom. "Nismo trebali žuriti s objavom u petak… Pitanja su izuzetno složena i zahtijevaju jasnu komunikaciju", rekao je pak Sam Altman, izvršni direktor OpenAI-ja. OpenAI planira postupno raditi s Pentagonom, uz tehničke mjere zaštite.