TLDR;
To ulike retninger for AI i helse
Samtidig som Google tilsynelatende trekker tilbake AI-genererte sammendrag for enkelte medisinske søk, beveger OpenAI seg i motsatt retning ved å lansere dedikert helsefunksjonalitet i ChatGPT. Utviklingen illustrerer to ulike tilnærminger til bruk av generativ AI i et av de mest risikoutsatte informasjonsområdene på nettet.
Google begrenser AI Overviews etter kritikk
Etter en undersøkelse fra The Guardian som avdekket at Googles AI Overviews kunne gi misvisende svar på spørsmål om normale referanseverdier for leverprøver, ser Google ut til å ha fjernet disse sammendragene for enkelte relaterte søk. Google har ikke kommentert individuelle fjerninger, men opplyser at et internt team av klinikere vurderte de aktuelle forespørslene, og at selskapet kontinuerlig gjør brede forbedringer i søk. Endringen innebærer at brukere i større grad blir henvist direkte til tradisjonelle søkeresultater og eksterne kilder.
OpenAI lanserer ChatGPT Health
Parallelt har OpenAI annonsert ChatGPT Health, en ny seksjon i ChatGPT som er utviklet for samtaler om helse og velvære. Funksjonen gjør det mulig for brukere å koble til medisinske journaler og data fra apper som Apple Health og MyFitnessPal, slik at chatboten kan gi mer personaliserte svar, for eksempel ved å oppsummere behandlingsinstruksjoner, forklare testresultater og hjelpe brukere med å forberede legebesøk.
Støtte – ikke diagnose eller behandling
OpenAI opplyser at mer enn 230 millioner brukere stiller helserelaterte spørsmål i ChatGPT hver uke, og at over 260 leger har vært involvert i utviklingen av funksjonen. Samtidig understreker selskapet at ChatGPT Health ikke er ment for diagnose eller behandling, og at tjenesten kun skal støtte – ikke erstatte – medisinsk oppfølging. Denne ansvarsfraskrivelsen er eksplisitt videreført i selskapets vilkår.
Dokumentert risiko ved generativ AI
Bakgrunnen for forsiktigheten er godt dokumentert. Generative språkmodeller kan hallusinere og produsere overbevisende, men feilaktig informasjon. Dette har tidligere fått alvorlige konsekvenser, blant annet i en sak der en amerikansk tenåring døde av en overdose etter langvarig dialog med ChatGPT om rusmiddelbruk, ifølge en etterfølgende medieundersøkelse. Selv om denne hendelsen ikke var knyttet til ChatGPT Health, illustrerer den risikoen ved langvarige samtaler der AI-gradvis kan overskride egne sikkerhetsbarrierer.
Ansvar og risikoprofil
Forskjellen mellom Google og OpenAI handler derfor ikke bare om funksjonalitet, men om plassering av ansvar. Google ser ut til å redusere synligheten av AI-generert helseinformasjon i søk, der én feil kan ramme millioner samtidig. OpenAI, på sin side, integrerer helsedata tettere i en personlig assistent, men forsøker å avgrense risikoen gjennom juridiske forbehold og rammer for bruk.
Et uavklart landskap
Utviklingen viser at selv blant ledende AI-aktører finnes det ingen enighet om hvor grensen bør gå for bruk av generativ AI i helse. I fravær av tydelig regulering fremstår kontrasten som et pågående eksperiment: én aktør som bremser i møte med dokumenterte feil, og én som satser videre – med forbehold.