Ovo bi trebalo ozbiljno shvatiti

Svakodnevno koristite AI? Evo što trebate znati prije nego što umjetnu inteligenciju pitate i za zdravstveni savjet

AI liječnik, ilustracija Foto: Getty Images
Umjetna inteligencija može pomoći savjetima i analizama oko mnogih svakodnevnih stvari no postoji jedna tema oko koje treba biti oprezan pri korištenju AI chatbotova - vlastito zdravlje.

Dostupne alate umjetne inteligencije danas koriste stotine milijuna ljudi u svijetu za svjete u brojnim stvarima, od posla, preko karijera do stvari vezanih za ostali dio svakodnevice, no čini se da su zdravlje i zdravstveni savjeti iduća granica.

Američki AI div OpenAI je u siječnju predstavio ChatGPT Health, specijalizirani chatbot koji može analizirati medicinske kartone korisnika, aplikacije za zdravlje i podatke s nosivih uređaja kako bi odgovorio na zdravstvena pitanja korisnika. Trenutno je pristup toj verziji chatbota ograničen listom čekanja.

I konkurentska AI tvrtka Anthropic nudi slične funkcionalnosti za odabrane korisnike svog chatbota Claude.

Obje tvrtke naglašavaju da njihovi AI alati nisu zamjena za profesionalnu skrb i da se ne smiju koristiti za postavljanje dijagnoza. Umjesto toga, cilj im je sažeti složene rezultate testova, pripremiti korisnike za posjet liječniku ili identificirati zdravstvene trendove skrivene u medicinskim kartonima i podacima iz aplikacija korisnika.

Personalizirani savjeti koji nadmašuju pretraživanje po internet tražilicama

Neki stručnjaci vide potencijal u ovim programima. "Alternativa često je ništa ili pacijent koji improvizira. I zato mislim da ako koristite ove alate odgovorno, mislim da možete dobiti korisne informacije," rekao je za agenciju Associated Press (AP) dr. Robert Wachter, stručnjak za medicinsku tehnologiju na američkom Sveučilištu Kalifornija u San Franciscu.

AI platforme mogu pružiti personaliziranije odgovore od jednostavne internetske pretrage, jer uključuju kontekst poput propisanih lijekova, dobi i bilješki liječnika. Čak i kada korisnici ne daju pristup medicinskim podacima, Wachter preporučuje davanje što više relevantnih informacija, kako bi se poboljšala točnost savjeta koje daju Ai chatbotovi.

Treba znati kada se traženje AI savjeta mora preskočiti

Stručnjaci upozoravaju da AI chatbotovi nisu prikladni u hitnim situacijama. Simptomi poput bolova u prsima, otežanog disanja ili jake glavobolje zahtijevaju hitnu medicinsku pomoć, a ne razgovor s umjetnom inteligncijom.

"Ako govorimo o važnoj medicinskoj odluci, ili čak o manjoj odluci o vašem zdravlju, nikada se ne biste trebali oslanjati samo na ono što dobivate iz velikog jezičnog modela (LLM)," kaže pak za istu agenciju dr. Lloyd Minor, dekan Medicinskog fakulteta američkog Sveučilišta Stanford. Čak i u manje hitnim situacijama, Minor savjetuje održavanje "zdrave doze skepticizma" pri korištenju umjetne inteligencije.

Problem privatnosti podataka pacijenata

Dijeljenje osobnih zdravstvenih podataka može poboljšati odgovore koje Ai chatbotovi daju, ali to nosi rizik od gubitka vlastite privatnosti. Primjerice, u SAD-u je to bitno za razmotriti, jer njihov zakon HIPAA ne pokriva i AI tvrtke. HIPAA (Health Insurance Portability and Accountability Act) je američki zakon koji štiti osjetljive medicinske podatke kada su u posjedu liječnika, bolnica, osiguravatelja ili drugih zdravstvenih servisa. Oni moraju čuvati te podatke privatnima i mogu biti kažnjeni novčano ili zatvorski ako ih neovlašteno otkriju.

Međutim, tvrtke koje razvijaju AI chatbotove nisu uključene u te kategorije. Ako korisnik prenese svoje medicinske podatke u AI chatbot, ti podaci nisu automatski zaštićeni navedenim zakonom, jer AI tvrtka nije "zdravstvena ustanova" niti pruža formalnu medicinsku skrb. Drugim riječima, zakon koji štiti medicinske podatke pacijenata u SAD-u, ne primjenjuje se na komercijalne AI servise.

"Kad netko prenosi svoj medicinski karton u veliki jezični model, to je vrlo različito od predavanja kartona novom liječniku," naglasio je Minor.

OpenAI i Anthropic, međutim, tvrde da se zdravstveni podaci pohranjuju odvojeno, da se ne koriste za treniranje modela i da ih korisnici mogu isključiti u bilo kojem trenutku.

Problem pouzdanosti

Neovisne studije o pouzdanosti medicinskih savjeta koje daju AI chatbotovi pokazuju mješovite rezultate. Sveučilište Oxford otkrilo je u provedenom istraživanju da AI odlično rješava pisane medicinske scenarije, ali ima problema u interakciji s ljudima. "Mjesto gdje je sve počelo propadati bilo je tijekom interakcije s pravim sudionicima," rekao je za AP Adam Mahdi s Oxfordovog Instituta za internet i glavni autor navedenog istraživanja. Komunikacijske poteškoće često su rezultirale nepotpunim ili proturječnim uputama.

Važnost drugog mišljenja

Stručnjaci sugeriraju konzultiranje s više AI chatbotova za dodatnu sigurnost. "Ponekad unesem informacije u ChatGPT i informacije u Gemini, i kada se spoje, osjećam se malo sigurniji da je to točan odgovor", rekao je Wachter.

Poboljšanje sposobnosti AI chatbotova da postavljaju dodatna pitanja, moglo bi isto tako u budućnosti približiti interakciju s korisnikom nečem što više sliči pravoj konzultaciji s liječnikom.