Begrepet AGI brukes ofte som om alle allerede mente det samme. Det gjør de ikke. For noen er AGI et science fiction-øyeblikk der en maskin "våkner". For andre er det bare et markedsføringsord for neste modellgenerasjon. Begge synspunktene gjør diskusjonen dårligere.
Den mest brukbare måten å snakke om AGI på er i stedet som en prestasjonsprofil: systemer som kan håndtere et bredt spekter av kognitiv oppgaver på høyt nivå, innenfor mange domener, med relativt lite spesialtilpasning og med økende grad av selvstendig problemløsing.[1]
Et arbeidsbegrep, ikke et magisk øyeblikk
Denne tilnærmingen har en fordel. Den flytter diskusjonen fra mystikk til kapasitet. Man kan da spørre: hvor generelt er systemet, hvor robust er det, hvor mye menneskelig oversikt kreves, hvor godt håndterer det nye miljøer og hvor farlig blir det hvis det får større autonomi?
Det betyr også at AGI ikke trenger å være et knivskarp punkt i tiden. Det kan være en overgang der systemer gradvis blir bredere, mer agentiske og mer nyttige i flere typer arbeid. Det gjør spørsmålet mindre dramatisk i form — men ikke mindre viktig i praksis.
Hva som taler for raskere framgang
Det finnes gode grunner til å ta raskere utvikling alvorlig. De siste årene har flere utviklingslinjer begynt å arbeide sammen: sterkere basismodeller, bedre verktøybruk, lengre kontekst, multimodalitet, bedre finjustering, billigere tilgang og mer agentiske arbeidsflyter. Dette gjør systemene mer generelle enn de var for bare kort tid siden.[2]
Det er også rimelig å anta at AI til en viss grad kan akselerere AI-utvikling gjennom bedre kodestøtte, forskningsassistanse og raskere eksperimentelle sykler. Denne mekanismen skal ikke romantiseres, men den bør heller ikke ignoreres.
Hva som fortsatt bremser
Samtidig finnes det klare begrensninger. Dagens modeller kan være skjøre, overselvsikre på feil måter, dårlige på langsiktig robust planlegging og følsomme for miljøskifter. De er fortsatt avhengig av menneskelig avgrensning, gransking og ansvar i mange virkelige arbeidsflyter.
Det er derfor falsk presisjon er farlig. Å si at AGI "kommer i 2028" eller "ikke på tiår" høres klart ut, men bygger ofte på mer sikkerhet enn underlaget tillater. Den rimelige holdningen er i stedet at utviklingen er usikker, men at intervallet for seriøse scenarier er nær nok til å være et planleggingsspørsmål allerede nå.[3]
Tidslinjer uten falsk sikkerhet
Jeg tror derfor at AGI bør behandles omtrent som andre høykonsekvens-usikkerheter. Du trenger ikke å vite nøyaktig når et skifte inntreffer for å forberede deg på det. Du planlegger ikke strømnett, forsvar eller helsevesen bare for normalfallet. Du planlegger også for variasjon, feilmåter og scenarier som kan bli avgjørende hvis de inntreffer.
Det svakere scenarioet — der AGI utsettes, men modellene blir likevel stadig mer generelle og mer nyttige — er allerede i seg selv nok til å rettferdiggjøre seriøs beredskap i virksomheter, utdanning og regjering.
Bevissthetsspørsmålet er et annet spørsmål
En stor del av den offentlige fascinasjonen rundt AGI glir raskt over i spørsmålet om bevissthet. Kan avanserte AI-systemer ha subjektiv opplevelse? Det er et legitimt forskningsspørsmål, men det bør holdes atskilt fra det mer praktiske spørsmålet om kapasitet og samfunnsmessig virkning.
Det finnes seriøs forskning som mener spørsmålet ikke bør avvises slurvete. Men det finnes ingen robust grunn til å bygge dagens politikk eller bedriftsplanlegging på antagelsen om at maskinbevissthet allerede er etablert. For praktisk offentlig debatt er det nok å merke at systemer kan bli meget kraftfull uten at bevissthetsspørsmålet må være avgjort.[4]
Hvorfor AGI betyr noe allerede nå
Grunnen til å skrive om AGI nå er derfor ikke å påstå at målet allerede er nådd. Grunnen er at AGI som mulighet påvirker hvordan vi bør tenke om sikkerhet, styring, arbeidsmarked, geopolitikk og ansvar.
Den som vil være seriøs, må holde to tanker i hodet samtidig: vi vet ikke når eller om en viss grenseverdi passeres, men usikkerheten i seg selv er stor nok og konsekvensene betydelige nok til å rettferdiggjøre forberedelse.
Kildenoter
Kildene nedenfor brukes for definisjoner, usikkerhet, sikkerhet og det separate bevissthetsspørsmålet.
- Google DeepMind: Levels of AGI for Operationalizing Progress on the Path to AGI.
- Se Stanford HAI, AI Index 2025 for kapasitetsutvikling og Google DeepMind: Taking a responsible path to AGI for et industriperspektiv på utvikling og risiko.
- For scenariotanker og usikkerhet, se RAND: Pivots and Pathways on the Road to AGI Futures og International AI Safety Report 2026.
- For den separate forskningsdiskusjonen om AI og bevissthet, se Butlin et al., Identifying indicators of consciousness in AI systems.