TLDR;
En ny studie fra forskere ved Ruhr University Bochum og Max Planck Institute for Software Systems viser at AI-drevne søkemotorer ofte henter informasjon fra mindre populære nettsteder enn tradisjonelle søkemotorer. Studien fremhever et tydelig skille i hvilke kilder generative søkeverktøy benytter, noe som kan påvirke hvordan informasjon presenteres og oppfattes på nettet.
Funn og Metodikk i Studiet
Forskerne sammenlignet resultater fra tradisjonelle Google-søk med AI-genererte svar fra Google AI Overviews, Gemini 2.5 Flash, GPT-4o Web Search og GPT-4o med Search Tool. Søkene ble hentet fra ulike kildesett, blant annet ChatGPT-spørringer (WildChat), politiske temaer (AllSides) og populære produkter fra Amazon.
For å måle kildenes popularitet brukte forskerne domenerangeringen Tranco. Resultatene viste at mange av nettstedene som ble sitert av AI-søkemotorene lå langt lavere på Tranco-listen enn de som dukket opp i Googles tradisjonelle topp-10-resultater. Flere av kildene lå til og med utenfor de 1 000 000 mest populære domenene. Spesielt Gemini-søk viste en sterk tendens til å hente informasjon fra lite besøkte nettsteder.
Kilder og Innholdsmessige Forskjeller
Over halvparten av kildene brukt av Google AI Overviews fantes ikke i Googles topp 10-lenker for de samme søkene, og 40 % var ikke engang blant de 100 øverste resultatene. GPT-baserte søkeverktøy viste også særegne mønstre: de siterte oftere oppslagsverk og bedriftssider, men sjelden sosiale medier. Studien viste at de generative søkemotorene dekker omtrent like mange temaer som tradisjonelle søk, men har en tendens til å komprimere informasjon og utelate nyanser eller tvetydigheter.
Implikasjoner og Videre Forskning
Forskerne konkluderer med at forskjellene i kildevalg ikke nødvendigvis betyr at AI-søkeresultater er dårligere, men at de følger en annen informasjonslogikk. Studien anbefaler videre forskning på hvordan man kan vurdere kildemangfold, konseptdekning og sammenstillingsmetoder i generative søkesystemer.