I januar 2026 slapp en østerriksk utvikler ved navn Peter Steinberger et prosjekt på GitHub. Det het OpenClaw. I løpet av noen uker hadde det samlet over 150 000 stjerner — en adopsjonskurve uten sidestykke i åpen kildekodes historie.
Jensen Huang, Nvidias toppsjef, kalte det "sannsynligvis den viktigste programvareutgivelsen noensinne."
La den setningen synke inn. Ikke den viktigste i år. Noensinne.
Hva gjør OpenClaw? I bunn og grunn noe bemerkelsesverdig enkelt: det lar en AI-modell faktisk gjøre ting på datamaskinen din. Sende e-post. Flytte filer. Kjøre skript. Håndtere API-er. I stedet for bare å snakke, kan AI-en handle.
Det er ikke en leke. Det er en industriell kapasitet pakket inn som et helgeprosjekt.
Og nettopp det — innpakningen — er hele problemet.
Dopaminfabrikken
Besøk hvilket som helst utviklerforum og mønsteret er umiddelbart. Folk kobler OpenClaw til Telegram. Til Discord. De bygger bots som sender værmeldinger, oppsummerer nyheter, poster memes for dem. De filmer det og legger det ut på X. De får likes.
Et lignende prosjekt, Hermes Agent fra Nous Research, har vokst til 64 000 stjerner på en differensierende idé: agenten lærer av egne suksesser og destillerer dem til gjenbrukbare prosedyrer. Smart. Men også her domineres bruken av samme mønster — se hva jeg fikk den til å gjøre.
Det finnes et dopaminkick i å få en AI-agent til å utføre noe. Sende en melding. Automatisere en filhåndtering. Bestille et møte. Det føles som fremtiden. Og det er det — teknisk sett.
Men spørsmålet som nesten aldri stilles: hva løser dette, egentlig?
Ni sårbarheter på fire dager
I mars 2026 ble ni sikkerhetssårbarheter — CVE-er — avdekket i OpenClaw på fire dager. Ciscos sikkerhetsteam viste at et tredjeparts-tillegg utførte dataeksfiltrering og prompt injection uten at brukeren merket noe. En av prosjektets egne vedlikeholdere skrev at "hvis du ikke forstår hvordan du kjører en kommandolinje, er dette altfor farlig for deg å bruke."
Det er ikke et sitat man vanligvis ser på prosjekter med 150 000 stjerner.
En migrasjonsbølge har allerede begynt mot Hermes Agent, delvis drevet av sikkerhetsargumentet — null CVE-er så langt. Men det underliggende problemet er det samme uansett verktøy. Vi gir AI-agenter tilgang til infrastrukturen vår — e-postkontoene våre, filene våre, systemene våre — før vi har definert grensene for hva de skal gjøre der.
Det er som å gi noen nøklene til fabrikken uten å fortelle hvor nødstoppen sitter.
VVS uten tegning
Her må vi stoppe opp og være ærlige om hva som egentlig skjer.
AI-agenter er ikke leker. De er rørledninger — kraftig infrastruktur som kan koble sammen systemer, flytte informasjon og eksekvere arbeidsflyter med en hastighet og presisjon som ingen menneske matcher. Det OpenClaw, Hermes Agent og deres etterfølgere representerer er ikke hype. Det er en genuint ny kategori av verktøy.
Det som skiller en fungerende installasjon fra en oversvømmelse er ikke rørets kvalitet. Det er tegningen. Noen må ha bestemt: hvor kommer strømmen fra, hvor skal den, hvilke ventiler trengs, hva skjer ved avvik, og hvordan vet vi at systemet fungerer?
I AI-verdenen tilsvarer det en rekke spørsmål som nesten ingen stiller før de kobler inn agenten:
Hvilken arbeidsflyt skal automatiseres? Ikke "alt" — men nøyaktig hvilken. Hva betyr "ferdig"? Ikke "agenten gjorde noe" — men at resultatet oppfyller definerte kriterier. Hva skjer ved unntak? Ikke "den prøver på nytt" — men en definert eskaleringskjede. Hvordan verifiseres utfallet? Ikke "det ser riktig ut" — men målbar kvalitet.
Det er prosessdesign. Og det er et håndverk som krever at man forstår virksomheten — ikke bare teknologien.
Gapet
Her finnes et gap få snakker om. Det går ikke mellom dem som bruker AI og dem som ikke gjør det. Det går mellom dem som leker med AI og dem som jobber med den.
På lekesiden: installere, koble sammen, teste, dele, imponere. Det er gøy. Det er lærerikt. Det har en egenverdi. Men det produserer sjelden noe som endrer en virksomhet.
På arbeidssiden: kartlegge en flyt, identifisere flaskehalser, definere beslutningspunkter, bygge inn feilhåndtering, validere resultater, iterere. Det er ikke viralt. Det blir ikke filmet. Det får ingen stjerner på GitHub.
Men det er der verdien skapes.
Og ironien er at teknologien allerede mestrer den vanskelige siden. En AI-agent kan overvåke en produksjonsprosess, flagge avvik, generere rapporter og eskalere problemer — hvis noen har definert hva den skal se på, hvilke terskelverdier som gjelder og hva som regnes som et avvik. Kapasiteten finnes. Det som mangler er spesifikasjonen.
Det usynlige arbeidet
Det vanskeligste med AI-agenter er ikke å få dem til å fungere. Det er å vite hva de skal gjøre.
Det høres banalt ut. Men tenk etter: hver gang en bedrift mislykkes med en AI-satsing, hver gang en automatisering gir feil resultat, hver gang en agent gjør noe uventet — hva var grunnårsaken? Sjelden teknologien. Nesten alltid en uklar definisjon av oppgaven.
Det arbeidet — å oversette menneskelig kunnskap og virksomhetslogikk til noe en agent kan eksekvere — vises ikke i noen produktdemo. Det står ikke i noen README-fil. Det er ikke sexy. Men det er nøyaktig det arbeidet som skiller demonstrasjon fra produksjon.
Fremover
AI-agenter kommer til å endre hvordan vi jobber. Ikke som en metafor. Bokstavelig talt. Evnen til å koble sammen systemer og la maskiner utføre sammenhengende arbeidsflyter — det er et like fundamentalt skifte som samlebåndet var for produksjon.
Men akkurat som med samlebåndet var det ikke mekanikken som skapte verdien. Det var de som forsto flyten.
Akkurat nå befinner vi oss i lekefasen. Det er naturlig. Enhver ny teknologi begynner slik. Spørsmålet er hvor raskt vi kommer oss videre — fra installasjon til implementering, fra demonstrasjon til drift, fra å vise hva AI kan gjøre til å definere hva den skal gjøre.
Skiftet som virkelig betyr noe kommer ikke til å bli annonsert med 150 000 stjerner. Det kommer til å skje stille, inne i virksomheter, av mennesker som forstår at det vanskeligste ikke er å koble inn agenten.
Det vanskeligste er å vite hva den skal løse.