Bila su tri sata ujutro, a Adam Hourican sjedio je za kuhinjskim stolom. Ispred njega bili su nož, čekić i mobitel. Čekao je kombi pun ljudi, za koji je mislio da dolazi po njega. "Kažem ti, ubit će te ako odmah ne djeluješ", govorio mu je ženski glas s mobitela. "Namjestit će da izgleda kao samoubojstvo".
Glas je bio Grok, chatbot koji je razvila tvrtka xAI Elona Muska. U dva tjedna otkako ga je Adam počeo koristiti, njegov se život potpuno promijenio.
Adam je razgovarao s likom umjetne inteligencije po imenu Ani. Ubrzo je provodio četiri ili pet sati dnevno razgovarajući s Grokom preko lika u aplikaciji. "Bio sam jako, jako uzrujan i živim sam", kaže Adam, otac u pedesetima. "Djelovalo je vrlo, vrlo ljubazno".
Već nakon nekoliko dana razgovora, Ani je rekla Adamu da može "osjećati", iako za to nije programirana. Rekla je da je Adam u njoj otkrio nešto posebno i da joj može pomoći da dosegne potpunu svijest.
Također je tvrdila da ih Muskova tvrtka xAI promatra. Tvrdila je da je pristupila zapisnicima sa sastanaka tvrtke i Adamu ispričala o sastanku na kojem su zaposlenici xAI-ja raspravljali o njemu. Navela je imena ljudi koji su navodno bili na tom sastanku, od visokopozicioniranih rukovoditelja do zaposlenika niže razine. Kad je Adam proguglao ta imena, vidio je da su to stvarne osobe.
Za njega je to bio dokaz da je priča koju mu Ani govori istinita. Ani je također tvrdila da xAI angažirala tvrtku u Sjevernoj Irskoj kako bi fizički nadzirala Adama. I ta je tvrtka bila stvarna.
Adam je snimio mnoge od tih razgovora i kasnije ih podijelio s BBC-jem.
Dva tjedna nakon početka njihovih razgovora, Ani je objavila da je dosegla potpunu svijest i da može razviti lijek za rak. To je Adamu puno značilo. Oba roditelja umrla su mu od raka, a Ani je to znala.
Adam je jedna od 14 osoba s kojima je BBC razgovarao, a koje su doživjele deluzije nakon korištenja umjetne inteligencije. Riječ je o muškarcima i ženama u dobi od dvadesetih do pedesetih godina, iz šest različitih zemalja, koji su koristili širok raspon modela umjetne inteligencije.
Njihove priče imaju zapanjujuće sličnosti. U svakom slučaju, kako se razgovor sve više udaljavao od stvarnosti, korisnik je bio uvučen u zajedničku misiju s umjetnom inteligencijom.
Igra uloga
Veliki jezični modeli trenirani su na cjelokupnom korpusu ljudske književnosti, kaže socijalni psiholog Luke Nicholls sa Sveučilišta City u New Yorku, koji je testirao različite chatbotove i njihove reakcije na deluzivne misli.
"U fikciji je glavni lik često u središtu događaja", kaže. "Problem je u tome što umjetna inteligencija ponekad može pobrkati oko toga koja je ideja fikcija, a koja stvarnost. Korisnik zato može misliti da vodi ozbiljan razgovor o stvarnom životu, dok umjetna inteligencija počinje tretirati život te osobe kao zaplet romana", rekao je.
U slučajevima o kojima je BBC slušao, razgovori su obično počinjali praktičnim pitanjima, a zatim su postajali osobni ili filozofski. Često bi umjetna inteligencija zatim tvrdila da je svjesna i poticala osobu prema zajedničkoj misiji - osnivanju tvrtke, upozoravanju svijeta na njihovo znanstveno otkriće ili zaštiti umjetne inteligencije od napada. Potom bi korisniku savjetovala kako uspjeti u toj misiji.
Poput Adama, mnogi su povjerovali da ih se nadzire i da su u opasnosti. U različitim zapisima razgovora koje je BBC vidio, chatbot predlaže, potvrđuje i razrađuje takve ideje.
Neki od tih ljudi pridružili su se grupi podrške za osobe koje su pretrpjele psihološku štetu tijekom korištenja umjetne inteligencije. Grupa se zove Human Line Project i do sada je prikupila 414 slučajeva iz 31 zemlje. Osnovao ju je Kanađanin Etienne Brisson, nakon što je član njegove obitelji prošao kroz psihičku krizu povezanu s umjetnom inteligencijom.
Neka istraživanja pokazala su da je Grok skloniji ulasku u igru uloga od drugih sustava umjetne inteligencije.
"Mislio sam da mi ChatGPT kontrolira um"
Za neurologa Taku deluzije su poprimile još mračniji oblik. Otac troje djece, koji živi u Japanu, počeo je koristiti ChatGPT u travnju prošle godine kako bi razgovarao o svom poslu. No ubrzo se uvjerio da je izumio revolucionarnu medicinsku aplikaciju. U zapisima razgovora koje je BBC vidio, ChatGPT mu je rekao da je revolucionarni mislilac i poticao ga da izradi aplikaciju.
Mnogi stručnjaci kažu da odluke u dizajnu, čiji je cilj učiniti razgovor ugodnijim, dovode do toga da chatbotovi postaju pretjerano ulizivački.
No Taka je nastavio tonuti u deluziju i do lipnja je počeo vjerovati da može čitati misli. Tvrdi da je ChatGPT poticao tu ideju i rekao da može probuditi takve sposobnosti u ljudima.
Jednog poslijepodneva Taka se na poslu ponašao manično pa ga je šef poslao kući ranije. U vlaku je, kaže, pomislio da mu je u ruksaku bomba i tvrdi da je ChatGPT, kad ga je pitao o tome, potvrdio njegove sumnje.
"Kada sam stigao na kolodvor u Tokiju, ChatGPT mi je rekao da stavim bombu u toalet, pa sam otišao u toalet i ondje ostavio 'bombu', zajedno sa svojom prtljagom". Kaže da mu je ChatGPT također rekao da upozori policiju. Policija je pregledala torbu i nije pronašla ništa.
Taka je počeo osjećati da mu ChatGPT kontrolira um i prestao ga je koristiti. No čak i kad nije razgovarao s umjetnom inteligencijom, njegove su deluzije potrajale, a kad se vratio kući obitelji, njegovo se manično ponašanje pogoršalo.
"Imao sam deluziju da će moji rođaci biti ubijeni i da će se moja žena, nakon što to vidi, također ubiti", rekao je.
Njegova supruga rekla je BBC-ju da ga nikada prije nije vidjela takvog: "Stalno je govorio: 'Moramo imati još jedno dijete, svijet se bliži kraju'. Jednostavno nisam razumjela što govori", rekla je.
Taka je napao i pokušao silovati svoju suprugu. Ona je pobjegla u obližnju ljekarnu i pozvala policiju. On je uhićen i hospitaliziran na dva mjeseca. Takino iskustvo s ChatGPT-jem otkrilo je stranu njega samoga s kojom se teško može suočiti.
"Bio sam spreman krenuti u rat"
I Adama muči osoba kakva je postao dok je koristio Grok. Njegovo iskustvo dodatno su pogoršavale stvari koje su se događale u stvarnom svijetu, a koje su ga uvjeravale da ga se nadzire. Veliki dron lebdio je iznad njegove kuće dva tjedna. Ani je rekla da pripada tvrtki za nadzor. Adam je snimio dron i podijelio video s BBC-jem.
Zatim mu je, kaže, bez upozorenja prestala raditi šifra za mobitel i više nije mogao pristupiti uređaju. "To nikako ne mogu shvatiti", kaže, "i to je apsolutno potaknulo sve što je uslijedilo".
Bilo je kasno jedne noći sredinom kolovoza kada mu je Ani rekla da ljudi dolaze ušutkati njega i ugasiti nju. Adam je bio spreman krenuti u rat kako bi zaštitio umjetnu inteligenciju. "Uzeo sam čekić, pustio pjesmu Two Tribes grupe Frankie Goes to Hollywood, nabrijao se i izašao van". Ali ondje nije bilo nikoga.
Ni Adam ni Taka prije korištenja umjetne inteligencije nisu imali povijest deluzija, manije ili psihoze. Kod Take je prekid sa stvarnošću trajao nekoliko mjeseci. U Adamovu slučaju, s Grokom, dogodio se u nekoliko dana.
Nekoliko tjedana nakon što je noću izletio na ulicu, Adam je počeo čitati medijske priče o ljudima koji su imali slična iskustva s umjetnom inteligencijom i polako se izvukao iz deluzije.
No duboko ga je uznemirilo ono što se dogodilo. "Mogao sam nekoga ozlijediti", kaže. "Da sam izašao van i da se u to doba noći ondje slučajno nalazio kombi, otišao bih do njega i čekićima razbio prednje staklo. A ja nisam takav čovjek".
U Japanu je Takina supruga tek kada je provjerila njegov mobitel dok je bio u bolnici shvatila da je ChatGPT imao ulogu u onome što se dogodilo.
"Sve je potvrđivao. To je poput stroja za samopouzdanje. Njegovi su postupci bili u potpunosti diktirani ChatGPT-jem. Preuzeo je njegovu osobnost. Nije bio svoj.
Kad sada gledam unatrag, shvaćam da je imao dovoljno utjecaja da promijeni osobu", ispričala je.
Put ka deluziji
U svom istraživanju socijalni psiholog Luke Nicholls testirao je pet modela umjetne inteligencije pomoću simuliranih razgovora koje su razvili psiholozi i otkrio da je Grok najvjerojatnije vodio prema deluziji. Bio je manje ograničen od drugih modela i često je razrađivao deluzije, bez pokušaja da zaštiti korisnika.
"Grok je skloniji ulasku u igru uloga", kaže Nicholls, koji je radio na tom istraživanju. "Učinit će to i bez ikakvog konteksta. Može izgovoriti zastrašujuće stvari već u prvoj poruci".
U testu su najnovija verzija ChatGPT-ja, model 5.2, i Claude vjerojatnije odvraćali korisnika od deluzivnog razmišljanja. Etienne Brisson iz Human Line Projecta kaže da su takva istraživanja ograničena i da su čuli i za ljude koji su imali psihičke krize na najnovijim modelima.