Nacionalni centar za kibernetičku sigurnost (NCSC) Ujedinjenog Kraljevstva objavio je zanimljivo upozorenje namijenjeno svima koji koriste ili planiraju koristiti velike jezične modele (LLM) za izgradnju dodatnih alata u tvrtkama. NCSC u svom je upozorenju kao najveći rizik istaknuo slabosti i ranjivosti cijelog sustava koje još uvijek nisu riješene.
na snazi od utorka
Vlada objavila nove cijene goriva
Problem s opskrbom
FOTO "Nema dizela ni benzina": Neke pumpe već bez goriva, ministar se pravi Englez
"vrlo dobri i produktivni razgovori"
Novi preokret! Trump odgodio udare nakon razgovora s Iranom, ali druga strana tvrdi da nije to pravi razlog
U svom su blogu priznali da veliki jezični modeli, odnosno alati pogonjeni umjetnom inteligencijom izazivaju velik interes među korisnicima, što je dovelo do toga da organizacije u svim sektorima istražuju korištenje tehnologije unutar svojih usluga.
Pročitajte i ovo
Hipnotiziranje AI
Sigurnosni stručnjaci upozoravaju: Nemojte vjerovati svemu što vam chatbotovi s umjetnom inteligencijom napišu
Stručnjaci NCSC-a upozoravaju da se, budući da se radi o području koje se brzo razvija, modeli stalno ažuriraju, ali i da se na tržištu pojavljuju mnogobrojne nove tvrtke koje nude AI usluge. Takav nagli razvoj tržišta, ističu iz NCSC-a, mogao bi značiti da novoosnovana tvrtka koja danas nudi uslugu možda neće postojati za dvije godine.
Organizacije koje grade usluge pomoću LLM-a stoga moraju uzeti u obzir činjenicu da bi se modeli mogli promijeniti znatno promijeniti, što bi rezultiralo prestankom postojanja ključnog dijela integracije u nekom trenutku.
Pročitajte i ovo
Ne samo zbog ChatGPT-a
I Europol upozorava na opasnosti koje prijete zbog umjetne inteligencije: Ova tri područja treba posebno držati na oku
NCSC je napomenuo i da LLM-ovi sa sobom mogu nositi određene rizike kada su uključeni u poslovne procese organizacije. Kao primjer naveli su činjenicu da LLM-ovi "ne mogu razlikovati uputu od podataka koji pomažu u dovršavanju uputa". Dali su primjer chatbota koji pokreće AI, a koji koristi banka, a kojeg se može prevariti da pošalje novac napadaču ili izvrši neovlaštene transakcije ako su uneseni upiti strukturirani na pravi način.
Organizacije koje grade usluge koje koriste LLM-ove moraju biti oprezne, jednako kao što bi bile da koriste proizvod ili kodove koji su u beta-fazi, dodao je NCSC.