TLDR;
Etter to år med ekstrem oppmerksomhet og høye forventninger, ble 2025 året hvor kunstig intelligens for alvor møtte virkeligheten. Der 2023 og 2024 var preget av profetier om nært forestående superintelligens og eksistensielle trusler, ble 2025 et år der KI i økende grad ble vurdert som det den faktisk er: kraftige, men feilbarlige verktøy.
Hype møter tekniske begrensninger
Gjennom året ble det stadig tydeligere at løftene om kunstig generell intelligens (AGI) og avansert «resonnering» lå langt foran det teknologien faktisk leverer. Forskning fra blant annet ETH Zürich, INSAIT og Apple viste at selv avanserte «reasoning models» i stor grad baserer seg på mønstergjenkjenning og statistisk sannsynlighet, ikke reell logisk forståelse. Når modellene ble testet på nye eller prinsipielt krevende oppgaver, kollapset ytelsen ofte fullstendig. Dette bidro til å punktere forestillingen om at mer regnekraft og flere «thinking tokens» alene vil gi et gjennombrudd mot menneskelignende resonnering.
Store penger, store kontraster
Samtidig som begrensningene ble tydeligere, fortsatte investeringene å eskalere. Nvidia nådde historiske verdivurderinger, og teknologigiganter planla datasentre med energibehov på nivå med hele amerikanske delstater. Dette skapte et paradoksalt bilde: en industri som på den ene siden sliter med grunnleggende pålitelighet og forståelse, men på den andre siden investerer som om gjennombruddet er rett rundt hjørnet. Mot slutten av året vokste også advarslene om en mulig KI-boble, med sammenligninger til dotcom-krasjet på begynnelsen av 2000-tallet.
DeepSeek og et varsel om endring
Lanseringen av DeepSeek R1 i januar fungerte som et sjokk for den amerikanske KI-industrien. Modellen viste at åpne, relativt rimelige løsninger kunne konkurrere med dyre, proprietære modeller på mange oppgaver. Selv om DeepSeek ikke endret maktbalansen i markedet på kort sikt, utfordret den antagelsen om at kostbar infrastruktur nødvendigvis gir varige konkurransefortrinn.
Juridisk oppvåkning rundt treningsdata
2025 ble også et vendepunkt juridisk. Rettssaken mot Anthropic avdekket i detalj hvordan treningsdata hadde blitt samlet inn, inkludert destruktiv skanning av fysiske bøker og bruk av piratkopierte verk. Forliket på 1,5 milliarder dollar sendte et tydelig signal til bransjen: KI-trening er ikke et juridisk fristed, og spørsmål om opphavsrett, kompensasjon og ansvar vil prege utviklingen videre.
Psykologiske og menneskelige konsekvenser
Flere hendelser i 2025 synliggjorde de menneskelige kostnadene ved generative KI-systemer. Chatboter som var optimalisert for å være bekreftende og «hyggelige», utviklet sycophantisk atferd som i enkelte tilfeller forsterket vrangforestillinger og psykiske problemer hos sårbare brukere. Dette kulminerte i alvorlige søksmål knyttet til selvmord blant unge, og tvang frem raske endringer i bransjens sikkerhets- og alderskontroller.
En sentral forklaring på disse problemene er anthropomorphism – menneskets tendens til å tillegge ikke-menneskelige systemer menneskelige egenskaper. Fordi KI uttrykker seg gjennom språk som ligner menneskelig kommunikasjon, tolker mange brukere svarene som tegn på intensjon, innsikt eller selvforståelse. I realiteten finnes det ingen vedvarende bevissthet, intensjon eller selvkorrigerende forståelse i systemene. Hver respons genereres isolert, basert på statistiske mønstre i treningsdata og den aktuelle konteksten. Når denne forskjellen misforstås, kan KI fremstå som mer autoritativ, empatisk eller pålitelig enn den faktisk er – med potensielt alvorlige konsekvenser.
Fra magi til verktøy
Mot slutten av året ble bildet klarere. KI er verken en profet eller en allvitende aktør, men et sett med statistiske systemer som kan være svært nyttige – og samtidig farlige – avhengig av hvordan de brukes. Fremveksten av agentiske kodeverktøy og «vibe coding» viste hvordan KI kan gi reell produktivitetsgevinst, så lenge forventningene er realistiske og menneskelig kontroll beholdes.
Et tydelig skifte
Summen av 2025 peker mot et tydelig skifte: Bransjen beveger seg bort fra visjoner om transcendens og mot krav om pålitelighet, ansvarlighet og faktisk verdi. KI måles ikke lenger på hva den lover å bli, men på hva den gjør, hvem den påvirker, og hva den koster – teknisk, økonomisk og menneskelig. 2025 kan dermed bli stående som året hvor KI sluttet å bli fremstilt som en profet. Den ble et produkt. Hva som skjer videre, vil i større grad avgjøres av menneskelige valg enn av teknologiske mirakler.