En internasjonal test utført av 22 allmennkringkastere (bl.a. NRK) viser at fritt tilgjengelige AI-assistenter — som ChatGPT, Copilot, Perplexity og Gemini — ga svar der omtrent 45 % av svarene inneholdt minst én betydelig feil. Les artikkelen fra NRK her.
Refleksjoner og hva det betyr
At nesten halvparten av svarene inneholder betydelige feil understreker at man ikke kan blindt stole på AI-assistenter for presis informasjon, særlig i kontekster med faktasjekk, nyhetsformidling eller beslutningstaking.
Problemet med kildebruk og lenkegenerering er spesielt alarmerende – fordi feilaktige eller fabrikkerte kilder kan gi et falskt inntrykk av troverdighet.
For virksomheter og nettbutikker som benytter eller vurderer å benytte AI-assistenter i sitt arbeid (f.eks. kundeservice, innholdsproduksjon), betyr dette at man fortsatt må ha en sterk kvalitetssikring på plass.
Det viser også behovet for å kjenne til begrensningene ved verktøyene — selv om de ser imponerende ut, er de ikke ufeilbarlige.
Hva betyr dette for deg og din virksomhet
Hvis du vurderer å bruke AI-assistenter i oppgaver som nyhetsinnhenting, automatisk rapportering eller kundekommunikasjon som krever presisjon – vær oppmerksom på at feilmarginen fortsatt er betydelig.
Sørg for å ha manuell kvalitetssikring på plass når AI-genererte svar brukes som grunnlag for beslutninger eller publisering.
Be om systemer og rutiner som ivaretar korrekt kildebruk, tydelig sporing av informasjon og oppdatert fakta.
Se på AI-assistenter som et supplement – ikke som en erstatning – for menneskelig journalistikk, spesielt der det kreves høy grad av nøyaktighet og ansvar.