Begreppet AGI används ofta som om alla redan menade samma sak. Det gör de inte. För vissa är AGI ett science fiction-ögonblick där en maskin ”vaknar”. För andra är det bara ett marknadsföringsord för nästa modellgeneration. Båda synsätten gör diskussionen sämre.

Det mest användbara sättet att tala om AGI är i stället som en prestationsprofil: system som kan hantera ett brett spektrum av kognitiva uppgifter på hög nivå, i många domäner, med relativt liten specialanpassning och med växande grad av självständig problemlösning.[1]

Ett arbetsbegrepp, inte ett magiskt ögonblick

Det här synsättet har en fördel. Det flyttar diskussionen från mystik till kapacitet. Man kan då fråga: hur generellt är systemet, hur robust är det, hur mycket mänsklig styrning krävs, hur väl klarar det nya miljöer och hur farligt blir det om det får större autonomi?

Det betyder också att AGI inte behöver vara en knivskarp punkt i tiden. Det kan vara en övergång där system successivt blir bredare, mer agentiska och mer användbara i fler typer av arbete. Det gör frågan mindre dramatisk i formen — men inte mindre viktig i praktiken.

Vad som talar för snabbare framsteg

Det finns goda skäl att ta snabbare utveckling på allvar. De senaste åren har flera utvecklingslinjer börjat samverka: starkare basmodeller, bättre verktygsanvändning, längre kontext, multimodalitet, bättre finjustering, billigare tillgång och mer agentiska arbetsflöden. Det gör systemen mer generella än de var för bara kort tid sedan.[2]

Det är också rimligt att anta att AI i viss mån kan snabba upp AI-utveckling genom bättre kodstöd, forskningsassistans och snabbare experimentcykler. Den mekanismen ska inte romantiseras, men den bör inte heller ignoreras.

Vad som fortfarande bromsar

Samtidigt finns tydliga begränsningar. Dagens modeller kan vara sköra, självsäkra på fel sätt, dåliga på långsiktig robust planering och känsliga för miljöskiften. De är fortfarande beroende av mänsklig avgränsning, granskning och ansvar i många verkliga arbetsflöden.

Det är därför falsk precision är farlig. Att säga att AGI ”kommer 2028” eller ”inte kommer på decennier” låter tydligt men bygger ofta på mer säkerhet än underlaget bär. Den rimliga hållningen är i stället att utvecklingen är osäker, men att intervallet för seriösa scenarier är tillräckligt nära för att vara en planeringsfråga redan nu.[3]

Tidslinjer utan låtsad säkerhet

Jag tror därför att AGI bör behandlas ungefär som andra högpåverkande osäkerheter. Man behöver inte veta exakt när ett skifte inträffar för att förbereda sig för det. Man planerar inte elnät, försvar eller sjukvård bara för normalfallet. Man planerar också för variation, felmoder och scenarier som kan bli avgörande om de inträffar.

Det svagare scenariot — där AGI dröjer men modellerna ändå blir stadigt mer generella och mer användbara — räcker redan i sig för att motivera seriös beredskap i företag, utbildning och stat.

Medvetandefrågan är en annan fråga

En stor del av den offentliga fascinationen kring AGI glider snabbt över i frågan om medvetande. Kan avancerade AI-system ha subjektiv upplevelse? Det är en legitim forskningsfråga, men den bör hållas isär från den mer praktiska frågan om kapacitet och samhällseffekt.

Det finns seriös forskning som menar att frågan inte bör avfärdas slarvigt. Men det finns inget robust skäl att bygga dagens policy eller företagsplanering på att maskinmedvetande redan är etablerat. För den praktiska samhällsdebatten räcker det långt att konstatera att system kan bli mycket kraftfulla utan att medvetandefrågan behöver vara avgjord.[4]

Varför AGI spelar roll redan nu

Skälet att skriva om AGI nu är alltså inte att påstå att målet redan är uppnått. Skälet är att AGI som möjlighet påverkar hur vi bör tänka om säkerhet, styrning, arbetsmarknad, geopolitik och ansvar.

Den som vill vara seriös behöver kunna hålla två tankar i huvudet samtidigt: vi vet inte när eller om en viss tröskel passeras, men osäkerheten i sig är tillräckligt stor och konsekvenserna tillräckligt betydande för att motivera förberedelse.

Källnoter

Källorna nedan används för definitioner, osäkerhet, säkerhet och den separata medvetandefrågan.

  1. Google DeepMind: Levels of AGI for Operationalizing Progress on the Path to AGI.
  2. Se Stanford HAI, AI Index 2025 för kapacitetsutveckling och Google DeepMind: Taking a responsible path to AGI för ett industriperspektiv på utveckling och risk.
  3. För scenariotänkande och osäkerhet, se RAND: Pivots and Pathways on the Road to AGI Futures och International AI Safety Report 2026.
  4. För den separata forskningsdiskussionen om AI och medvetande, se Butlin m.fl., Identifying indicators of consciousness in AI systems.

Rolf Skogling skriver AI-skiftet ur ett industrinära och praktiskt perspektiv, med utgångspunkt i arbete med AI i skarpa verksamheter.