Klockan 04:30 på morgonen den 7 maj 2026 reste sig förhandlarna i Bryssel och konstaterade att de just hade räddat AI-akten. De hade förhandlat i nio timmar. Resultatet var att man sköt upp tillämpningen av reglerna för högrisk-AI med sexton månader.
Två dagar senare gick Anthropic ut med en uppdatering av sin Claude Opus-modell. Den modellen kommer, om regleringen håller sin nya tidsplan, börja omfattas av högrisk-reglerna någon gång i december 2027. Fast inte den modellen, för den finns inte längre då. Då finns nästa generation, och generationen efter det. Och regleringen är skriven som om det inte spelar någon roll.
Vad man kom överens om
Den provisoriska överenskommelsen flyttar fram tillämpningen av högrisk-reglerna från augusti 2026 till 2 december 2027 för fristående system, och till 2 augusti 2028 för AI som är inbyggd i produkter som leksaker och hissar. Motiveringen är att tekniska standarder och compliance-verktyg inte hinner bli klara i tid. Företagen behöver mer tid att förbereda sig. Standarderna behöver mer tid att skrivas.
Det låter rimligt. Det är det inte.
Den linjära byråkratins blinda fläck
En teknisk standard inom CEN och CENELEC tar mellan arton och trettiosex månader att utveckla från första utkast till publikation. Det är inte en politisk kritik — det är en strukturell beskrivning av hur konsensusbaserade standardiseringsorgan fungerar. Man behöver utkast, remissrundor, harmoniseringsmöten, översättningar, formell antagning. Processen är gjord för att producera dokument som håller i tjugo år.
En frontier-modell genereras om var sjätte månad. GPT-4 var state-of-the-art i mars 2023. I maj 2026, tre år senare, är vi flera generationer längre fram. Det som krävde ett datacenter att köra 2023 kör en kvalificerad användare i dag på en bordsdator. Kontextfönstren har vuxit med en faktor tio. Resoneringskapaciteten är inte längre jämförbar. Och utvecklingstakten accelererar — den linjära extrapoleringen från 2023 till 2026 underskattar 2029.
Vad innebär det här konkret? Det innebär att den standard man skriver under 2026 baseras på den teknik man ser i 2026. När den publiceras 2028 beskriver den teknik som inte längre är frontiern. När den ska tillämpas på system i bruk är den inte längre relevant. Man har skapat ett juridiskt instrument som regulerar en svunnen generation av en exponentiellt utvecklande teknologi.
Det här är inte ett implementeringsproblem som mer tid löser. Det är en strukturell omöjlighet. Man kan inte standardisera ett rörligt mål med en process som rör sig långsammare än målet.
Kategorierna som inte fångar verkligheten
AI-aktens grundarkitektur bygger på riskklassificering. Oacceptabel risk förbjuds. Högrisk regleras hårt. Begränsad risk får transparenskrav. Minimal risk lämnas i fred. Det är en logisk konstruktion. Den förutsätter bara en sak: att AI-system har avgränsade användningsområden som man kan klassificera.
Det förutsätter en värld som inte längre finns.
En modern språkmodell har inga avgränsade användningsområden per definition. Den används för att skriva e-post, för att klassificera kvalitetsavvikelser i en produktionslinje, för att analysera röntgenbilder, för att hjälpa elever med matematik, för att skriva kod. Samma modell. Samma vecka. Ofta samma timme. Vissa av dessa användningar är triviala. Andra är högrisk i AI-aktens mening — beslut som påverkar människors hälsa, anställning, kreditvärdighet. Modellen vet inte vilken kategori den är i. Den bara svarar.
Så hur klassificerar man den? Om en kvalitetsingenjör i en tysk fabrik använder samma modell för att skriva mötesanteckningar på morgonen och för att fatta avvikelsebeslut på eftermiddagen — är modellen ett högrisk-system? Är den det bara på eftermiddagen? Eller är den det alltid, för att den kan användas så?
Det här är inte ett kantfall. Det är hur tekniken faktiskt används, varje dag, i hundratusentals europeiska företag redan i maj 2026. Och vi är fortfarande i den primitiva fasen. 2028, när reglerna ska börja gälla, talar vi om autonoma agenter som tar tusentals beslut per minut, många av dem konsekvensbärande, alla av dem genererade av samma underliggande modell som glider mellan användningsområden flera gånger per sekund. Det finns ingen kategori i AI-akten som tar höjd för det. Det finns ingen klassificeringsprocedur som hinner med.
Regleringen kan inte greppa det. Inte på grund av juristernas fel. På grund av att taxonomin är gjord för en teknik med stabila användningsmönster, och tekniken har inga stabila användningsmönster.
Det är inte försening — det är förnekelse
Här ligger essäns hårda mening: byråkratin förhandlar sexton månader för att skjuta upp regler som ändå kommer reglera fel sak när de träder i kraft.
De som förhandlade i Bryssel den 7 maj förstod inte vad de förhandlade om. De trodde de förhandlade om en tidsplan. De förhandlade om en regleringsfilosofi som redan var död.
För att förstå varför, fråga: vad var alternativet? Alternativet var att erkänna att AI-akten i sin nuvarande form inte är tillämpbar — inte för att man inte hann skriva standarderna, utan för att standardiseringsmetoden i sig inte fungerar för den här tekniken. Det alternativet är politiskt outhärdligt. Det skulle innebära att medge att flera år av lagstiftningsarbete och politiskt kapital har lett fram till ett dokument som inte gör det det utger sig för att göra. Det skulle innebära att börja om.
Så man väljer fördröjningen istället. Man förhandlar fram sexton månader. Man berättar för sig själv att med mer tid blir det rätt. Att om bara standarderna kommer på plats, så kommer maskineriet att fungera. Det är inte en bedömning. Det är en hoppfull bön klädd i procedurspråk.
Och under tiden fortsätter tekniken sin exponentiella kurva. Den bryr sig inte om Bryssel. Den bryr sig inte om CEN/CENELEC. Den bryr sig inte om Annex III. Den bara accelererar.
Vad som borde göras
Om diagnosen är att klassificeringsbaserad statisk reglering inte fungerar för exponentiellt utvecklande generella system — vad är då alternativet?
Inte mer tid. Mer tid förvärrar problemet, för avståndet mellan reglering och verklighet växer med varje månad. Inte heller fler standarder. Standarderna är problemet, inte lösningen.
Det finns ungefär två seriösa vägar.
Den första är adaptiv kapabilitetsbaserad reglering. Istället för att klassificera system efter användningsområde, regleras de efter kapabilitet. En modell som överstiger ett visst kapabilitetströskelvärde — definierat genom standardiserade tester som uppdateras kvartalsvis — utlöser specifika säkerhetskrav, oavsett vad den används till. Tröskelvärdena justeras i takt med frontiern. Standardiseringsprocessen ersätts med en levande utvärderingsregim. Det här kräver att Bryssel överger ambitionen att skriva regler som håller i tjugo år, och accepterar att AI-reglering måste fungera mer som penningpolitik än som produktsäkerhet — den måste vara reaktiv och kontinuerlig.
Den andra vägen är obekvämare. Den är att acceptera att man inte kan reglera den breda flödesmassan av AI-användning, och istället fokusera all kraft på katastrofgränser. Inte tusen procedurkrav som ingen kan följa, utan två eller tre röda linjer som är värda att hålla. Autonom vapenutveckling. Massövervakning utan rättslig prövning. Generering av material som dokumenterar övergrepp mot barn — den enda nya förbudslinje förhandlarna i Bryssel faktiskt fick rätt. Allt annat lämnas till sektorslagstiftning, civilrätt och marknadsmekanismer. Det är ett ödmjukare ambitionsutrymme. Men det är ett ärligt sådant.
Båda vägarna kräver att man medger något ingen i Bryssel ännu vågat säga högt: AI-akten i sin nuvarande form kommer inte att skydda européer från det den utger sig för att skydda dem från. Den kommer producera compliance-arbete för avdelningar som redan finns, generera intäkter för konsulter som redan är upptagna, och leverera regelefterlevnadsrapporter som ingen läser. Den kommer inte hindra det den ska hindra, för den greppar inte längre verkligheten den ska reglera.
2028
Tänk dig augusti 2028. Reglerna har trätt i kraft. Tekniska standarder har publicerats med två års förseningar. Konformitetsbedömningsorgan har certifierats. Företag har anställt compliance-officers, byggt dokumentationssystem, fyllt i Annex IV-formulär. Allt fungerar precis som det ska.
Och i samma stund har en autonom agent — en av miljarder som kör i bakgrunden av europeisk infrastruktur — just slutfört en kedja av sextiosju beslut om hur en finansiell omstrukturering ska genomföras hos en kund i Hamburg. Ingen av dessa beslut omfattas av reglering, för agenten har ingen "användare" i AI-aktens mening. Modellen som driver agenten är på sin trettonde generation sedan augusti 2024. Klassificeringen som gjordes för dess föregångare 2026 är formellt fortfarande giltig. Materiellt har den inget att göra med det system som faktiskt körs.
Detta är inte science fiction. Det är extrapolering av kurvan vi redan ser i maj 2026. Det är vad en linjär ritning över en exponentiell verklighet alltid producerar: regleringar som är formellt korrekta och materiellt frånvarande.
Regleringen träder i kraft i en värld den inte beskriver.
Och den natten i Bryssel — när förhandlarna reste sig klockan 04:30 och berättade för pressen att de räddat AI-akten — då var det inte AI-akten de räddade. Det var bilden av sin egen relevans. Tekniken tittade inte ens åt deras håll.