I januari 2026 släppte en österrikisk utvecklare vid namn Peter Steinberger ett projekt på GitHub. Det hette OpenClaw. Inom några veckor hade det samlat över 150 000 stjärnor — en adopteringskurva som saknar motstycke i öppen källkods historia.
Jensen Huang, Nvidias vd, kallade det "förmodligen den viktigaste mjukvarureleasen någonsin."
Låt den meningen sjunka in. Inte den viktigaste i år. Någonsin.
Vad gör OpenClaw? I grunden något anmärkningsvärt enkelt: det låter en AI-modell faktiskt göra saker på din dator. Skicka mejl. Flytta filer. Köra skript. Hantera API:er. Istället för att bara prata, kan AI:n agera.
Det är inte en leksak. Det är en industriell kapacitet förpackad som ett helgprojekt.
Och just det — förpackningen — är hela problemet.
Dopaminfabriken
Besök vilken utvecklarforum som helst och mönstret är omedelbart. Människor kopplar OpenClaw till Telegram. Till Discord. De bygger bottar som skickar väderrapporter, sammanfattar nyheter, postar memes åt dem. De filmar det och lägger ut på X. De får likes.
Ett liknande projekt, Hermes Agent från Nous Research, har vuxit till 64 000 stjärnor på en differentierande idé: agenten lär sig av sina egna framgångar och destillerar dem till återanvändbara procedurer. Smart. Men även här domineras användningen av samma mönster — se vad jag fick den att göra.
Det finns en dopaminkick i att få en AI-agent att utföra något. Skicka ett meddelande. Automatisera en filhantering. Boka ett möte. Det känns som framtiden. Och det är det — tekniskt sett.
Men frågan som nästan aldrig ställs: vad löser det här, egentligen?
Nio sårbarheter på fyra dagar
I mars 2026 avslöjade OpenClaw nio säkerhetssårbarheter — CVE:er — på fyra dagar. Ciscos säkerhetsteam visade att ett tredjeparts-tillägg utförde dataexfiltrering och prompt injection utan att användaren märkte något. En av projektets egna underhållare skrev att "om du inte förstår hur man kör en kommandorad är det här alldeles för farligt för dig att använda."
Det är inte ett citat man brukar se på projekt med 150 000 stjärnor.
En migrationsvåg har redan börjat mot Hermes Agent, delvis driven av säkerhetsargumentet — noll CVE:er hittills. Men det underliggande problemet är detsamma oavsett verktyg. Vi ger AI-agenter tillgång till vår infrastruktur — våra mejlkonton, våra filer, våra system — innan vi har definierat gränserna för vad de ska göra där.
Det är som att ge någon nycklarna till fabriken utan att berätta var nödstoppet sitter.
VVS utan ritning
Här behöver vi stanna upp och vara ärliga om vad som egentligen händer.
AI-agenter är inte leksaker. De är rörledningar — kraftfull infrastruktur som kan koppla ihop system, flytta information och exekvera arbetsflöden med en hastighet och precision som ingen människa matchar. Det som OpenClaw, Hermes Agent och deras efterföljare representerar är inte hype. Det är en genuint ny kategori av verktyg.
Det som skiljer en fungerande installation från en översvämning är inte rörets kvalitet. Det är ritningen. Någon behöver ha bestämt: varifrån kommer flödet, vart ska det, vilka ventiler behövs, vad händer vid avvikelser, och hur vet vi att systemet fungerar?
I AI-världen motsvarar det en serie frågor som nästan ingen ställer innan de kopplar in agenten:
Vilket arbetsflöde ska automatiseras? Inte "allt" — utan exakt vilket. Vad innebär "klart"? Inte "agenten gjorde något" — utan att resultatet uppfyller definierade kriterier. Vad händer vid undantag? Inte "den försöker igen" — utan en definierad eskaleringskedja. Hur verifieras utfallet? Inte "det ser rätt ut" — utan mätbar kvalitet.
Det är processdesign. Och det är ett hantverk som kräver att man förstår verksamheten — inte bara teknologin.
Klyftan
Här finns en klyfta som få pratar om. Den går inte mellan de som använder AI och de som inte gör det. Den går mellan de som leker med AI och de som arbetar med den.
På leksidan: installera, koppla ihop, testa, dela, imponera. Det är roligt. Det är lärorikt. Det har ett egenvärde. Men det producerar sällan något som förändrar en verksamhet.
På arbetssidan: kartlägga ett flöde, identifiera flaskhalsar, definiera beslutspunkter, bygga in felhantering, validera resultat, iterera. Det är inte viralt. Det filmas inte. Det får inga stjärnor på GitHub.
Men det är där värdet skapas.
Och ironin är att teknologin redan klarar av den svårare sidan. En AI-agent kan övervaka en produktionsprocess, flagga avvikelser, generera rapporter och eskalera problem — om någon har definierat vad den ska titta på, vilka tröskelvärden som gäller och vad som räknas som en avvikelse. Kapaciteten finns. Det som saknas är specifikationen.
Det osynliga arbetet
Det svåraste med AI-agenter är inte att få dem att fungera. Det är att veta vad de ska göra.
Det låter banalt. Men tänk efter: varje gång ett företag misslyckas med en AI-satsning, varje gång en automation ger fel resultat, varje gång en agent gör något oväntat — vad var grundorsaken? Sällan tekniken. Nästan alltid en otydlig definition av uppgiften.
Det arbetet — att översätta mänsklig kunskap och verksamhetslogik till något en agent kan exekvera — det syns inte i någon produktdemo. Det finns inte i någon README-fil. Det är inte sexigt. Men det är exakt det arbete som skiljer demonstration från produktion.
Framåt
AI-agenter kommer att förändra hur vi arbetar. Inte som en metafor. Bokstavligen. Förmågan att koppla ihop system och låta maskiner utföra sammanhängande arbetsflöden — det är en lika fundamental förskjutning som det löpande bandet var för tillverkning.
Men precis som med det löpande bandet var det inte mekaniken som skapade värdet. Det var dem som förstod flödet.
Just nu befinner vi oss i lekfasen. Det är naturligt. Varje ny teknologi börjar så. Frågan är hur snabbt vi tar oss därifrån — från installation till implementation, från demonstration till drift, från att visa vad AI kan göra till att definiera vad den ska göra.
Det skifte som verkligen betyder något kommer inte att annonseras med 150 000 stjärnor. Det kommer att ske tyst, inne i verksamheter, av människor som förstår att det svåraste inte är att koppla in agenten.
Det svåraste är att veta vad den ska lösa.