Ordlista

AI-begrepp förklarade på ren svenska — från fabriksgolvet, inte styrelserummet.

Den här ordlistan finns för att du ska kunna läsa essäerna på AI‑skiftet utan att snubbla på jargong. Förklaringarna är medvetet jordnära — målet är att du ska förstå vad begreppen innebär i praktiken, inte att du ska kunna citera en lärobok. Listan uppdateras löpande.

Grunderna

AIArtificial Intelligence
Grunderna
Samlingsnamn för system som utför uppgifter som traditionellt krävt mänskligt tänkande — tolka text, fatta beslut, identifiera mönster. I dagens debatt menar man nästan alltid generativ AI, men begreppet är bredare och inkluderar allt från spamfilter till självkörande bilar.
Generativ AIGenerative AI / GenAI
Grunderna
AI som skapar nytt innehåll — text, bild, kod, ljud, video — istället för att bara klassificera eller sortera. ChatGPT, Claude, Midjourney och Suno är alla generativa. Det avgörande: de automatiserar inte beräkning — de automatiserar kognition. Det är en kvalitativ skillnad.
Kognitiv automationCognitive automation
Grunderna
Kärnan i skiftet: maskiner som utför tankearbete, inte bara manuellt eller beräkningsarbete. Tolka rapporter, formulera analyser, fatta bedömningar, skriva dokument. Det som gör AI fundamentalt annorlunda än Excel, robotsvetsar eller ERP-system. Tidigare automatisering ersatte händer och kalkylblad — den här ersätter delar av huvudet.
Neuralt nätverkNeural network / Deep learning
Grunderna
Den matematiska arkitekturen bakom modern AI — lager på lager av beräkningsnoder löst inspirerade av hjärnans synapser. "Deep learning" betyder att nätverket har många lager. Alla stora AI-system idag — språkmodeller, bildgeneratorer, robotkontroll — bygger på neurala nätverk.
TransformerTransformer architecture
Grunderna
Arkitekturen bakom i princip alla moderna AI-modeller. Introducerades av Google 2017 och löste ett grundproblem: hur en maskin ska förstå sammanhang i långa texter. Grunden för GPT ("Generative Pre-trained Transformer"), Claude, Gemini med flera.
LLMLarge Language Model
Grunderna
En stor språkmodell — kärnan i system som Claude och GPT. Tränad på enorma mängder text för att förstå och producera språk. "Stor" syftar på miljarder inlärda parametrar.Som en person som läst hela internet och kan formulera sig om det mesta — men som aldrig sett din specifika fabrik. Det är där RAG och fine-tuning kommer in.
SLMSmall Language Model
Grunderna
Mindre språkmodeller — typiskt 1–10 miljarder parametrar. Snabbare, billigare, kan köras lokalt. Ofta specialiserade via fine-tuning eller destillering. Googles Gemma, Microsofts Phi och Metas Llama i mindre varianter är exempel. Det är dessa som gör AI på fabriksgolvet praktiskt möjlig utan molntjänst.
Token
Grunderna
Den minsta enheten en språkmodell arbetar med — ungefär ¾ av ett ord på engelska, lite mindre på svenska. När man säger att en modell har ett "kontextfönster på 200 000 tokens" betyder det hur mycket text den kan ha i arbetsminnet samtidigt: ungefär 150 000 ord, eller en tjock bok.
Prompt
Grunderna
Instruktionen du ger en AI. Kan vara en enkel fråga eller en detaljerad brief med kontext, roll, format och begränsningar. Kvaliteten på din prompt avgör kvaliteten på svaret — precis som en bra arbetsinstruktion ger bättre resultat än "gör nåt bra".
HallucineringHallucination
Grunderna
När en AI med övertygande språk presenterar information som inte stämmer. Den "hittar på" — inte av illvilja, utan för att den optimerar för sammanhängande text, inte för sanning. Allvarligt i professionell användning. Du måste kunna verifiera.
Multimodal
Grunderna
En modell som förstår flera typer av input — text, bild, ljud, video, kod — i samma konversation. Claude kan till exempel analysera ett foto av en maskins kontrollpanel, läsa av värdena och föreslå justeringar. Det är multimodalitet i praktiken.
Deepfake
Grunderna
AI-genererat ljud, bild eller video som realistiskt efterliknar verkliga personer. Kan vara en politikers röst som säger saker hen aldrig sagt, eller ett videosamtal med en "chef" som inte existerar. EU:s AI Act kräver märkning av sådant innehåll.

Modeller & träning

GrundmodellFoundation model
Modeller
En stor, generellt tränad modell som sedan kan anpassas till specifika uppgifter — via fine-tuning, RAG eller prompt engineering. GPT-4, Claude, Gemini och Llama är grundmodeller. Tänk på det som råmaterialet: enormt kapabelt, men det blir verkligt användbart först när det formas för ett syfte.
ParametrarParameters / Weights
Modeller
De inlärda värdena i en modell — "rattarna" som justerats under träningen. En modell med 70 miljarder parametrar har 70 miljarder justerbara värden. Fler parametrar innebär generellt mer kapacitet men kräver mer minne och beräkningskraft.
Fine-tuningFinjustering
Modeller
Man tar en generell modell och specialtränar den på ett avgränsat material — en industris dokumentation, ett företags processer, ett fackspråk.Som att ta en generalistingenjör och ge hen sex månaders djupdykning i just din process. Hen tappar inget av sin bredd, men får ett vasst djup.
LoRALow-Rank Adaptation
Modeller
En teknik för att fine-tuna stora modeller utan att omträna hela modellen. Istället justerar man en liten del av parametrarna. Gör fine-tuning möjlig med begränsad hårdvara.Som att byta linsen på en kamera istället för att bygga en ny kamera.
RAGRetrieval-Augmented Generation
Modeller
AI:n hämtar relevanta dokument innan den svarar, istället för att gissa ur minnet. Du kopplar modellen till dina egna datakällor — handböcker, ritningar, processkort — och den söker i dem för varje fråga.Skillnaden mellan att svara på en tentafråga med öppna böcker vs. stängda.
EmbeddingVektorinbäddning
Modeller
Tekniken att omvandla text (eller bilder, ljud) till siffervektorer som fångar mening, inte bara ordföljd. "Hund" och "valp" får liknande vektorer, medan "hund" och "traktor" hamnar långt ifrån varandra. Grundbulten i RAG-system — det är så AI:n hittar rätt dokument.
MoEMixture of Experts
Modeller
En modellarkitektur med flera specialiserade "expertmoduler" varav bara de relevanta aktiveras per fråga. DeepSeek V4 har en biljon parametrar men aktiverar bara 37 miljarder åt gången.Som ett sjukhus med specialister — du träffar ortopeden, inte hela personalstyrkan.
DestilleringDistillation
Modeller
En stor, kapabel modell lär en mindre modell att efterlikna sitt beteende. Läraren genererar exempel, eleven lär sig mönstren. Resultatet: en liten modell som presterar nära den stora men kräver en bråkdel av resurserna. Det är så de bästa SLM:erna skapas.
KvantiseringQuantization
Modeller
Att minska precisionen i modellens parametrar — t.ex. från 16-bitars till 4-bitars tal — för att den ska få plats i mindre minne och köra snabbare. Viss kvalitetsförlust, men ofta förvånansvärt liten. Avgörande teknik för att köra stora modeller lokalt.
DiffusionsmodellDiffusion model
Modeller
Arkitekturen bakom de flesta AI-bildgeneratorer (Midjourney, DALL-E, Stable Diffusion) och numera även video. Modellen lär sig att gradvis "avbrusa" en slumpmässig bild tills den matchar din beskrivning.
Syntetisk dataSynthetic data
Modeller
Data som genererats av AI istället för att samlas in från verkligheten. Används för att träna modeller när verklig data är dyr, känslig eller otillräcklig. En AI genererar tusentals varianter av t.ex. röntgenbilder eller fabriksscenarier — och en annan AI tränas på dem.
RLHFReinforcement Learning from Human Feedback
Modeller
Metod för att anpassa en modells beteende utifrån mänsklig feedback. Människor bedömer svaren — "det här var bra, det här var dåligt" — och modellen justeras. Det är därför Claude och GPT känns hjälpsamma: de har tränats att bete sig som goda samtalspartners.
Reinforcement learningFörstärkningsinlärning
Modeller
Inlärningsmetod där modellen lär sig genom att testa och få belöning eller bestraffning. Grunden i RLHF, men också i robotik, spel-AI (AlphaGo) och autonoma system. Särskilt relevant för fysisk AI där modellen måste lära sig navigera verkliga miljöer.
Emergenta förmågorEmergent abilities
Modeller
Förmågor som dyker upp oväntat i en modell när den blir tillräckligt stor — utan att de tränats in explicit. En modell tränad på text börjar plötsligt resonera om matematik eller lösa logikproblem den aldrig sett. Centralt i debatten om vägen till AGI.
Benchmark
Modeller
Standardiserat test för att jämföra AI-modellers prestanda. MMLU testar bred kunskap, HumanEval testar kodning, ARC testar resonemang. Användbart som grovmått — men inga benchmarks fångar hur bra en modell fungerar i din specifika tillämpning.
Öppen modellOpen-weight model
Modeller
En modell vars vikter är fritt tillgängliga att ladda ner och köra själv. Llama (Meta), Gemma (Google) och Mistral är exempel. "Öppen" betyder inte alltid helt fri — licensvillkoren varierar. Motpolen: slutna modeller som GPT och Claude, som bara nås via API eller chatt.

Användning

AI-agentAI Agent
Användning
Ett AI-system som inte bara svarar på frågor utan agerar självständigt — planerar, utför uppgifter, använder verktyg, söker information, och itererar tills jobbet är klart.Skillnaden mot en vanlig chatbot är som skillnaden mellan att fråga någon om vägbeskrivning och att be någon köra dit åt dig.
Agentiskt arbetsflödeAgentic workflow
Användning
Ett arbetsflöde där AI-agenter samverkar — en samlar data, en analyserar, en skriver rapport, en kvalitetsgranskar. System som Anthropics "Managed Agents" automatiserar hela kedjor av kognitivt arbete, inte bara enskilda steg. Skiftet från "modell som tjänst" till "agent som tjänst".
MCPModel Context Protocol
Användning
Öppet protokoll (utvecklat av Anthropic) som låter AI-modeller koppla sig till externa system — databaser, API:er, filsystem, verktyg. Gör att en agent kan söka i ditt ERP, läsa mejl eller uppdatera en databas.Tänk USB-standard, men för AI-integrationer. En kontakt som passar överallt.
Prompt engineering
Användning
Konsten att formulera instruktioner som ger bästa möjliga resultat. Inkluderar tekniker som rollsättning ("du är en erfaren processingenjör"), few-shot-exempel (visa vad du vill ha), chain-of-thought (be modellen tänka steg för steg), och strukturerad output. Inte magi — strukturerad kommunikation.
KontextfönsterContext window
Användning
Mängden information en modell kan "hålla i huvudet" i en konversation. Mäts i tokens. Claude har 200 000 tokens (ungefär en hel bok), DeepSeek V4 hanterar 1 miljon. Större fönster = mer material utan att tappa tråden.
Reasoning / tänkande modellerReasoning models
Användning
Modeller som "tänker" steg för steg innan de svarar — resonerar genom problemet istället för att ge ett direkt svar. OpenAI:s o-serie och Claudes extended thinking är exempel. Bättre på komplexa problem, men långsammare och dyrare per fråga.
Fysisk AIPhysical AI / Embodied AI
Användning
AI som verkar i den fysiska världen — robotar, drönare, autonoma fordon, cobots på fabriksgolvet. Modeller som förstår fysikens lagar tillräckligt bra för att styra rörelser, gripa objekt och navigera verkliga miljöer. Se essän Den fysiska fronten.
Digital tvillingDigital twin
Användning
En virtuell kopia av en fysisk tillgång — maskin, produktionslinje eller hel fabrik — som uppdateras i realtid med sensordata. Med AI kan tvillingen förutsäga haveri, simulera processförändringar och optimera drift utan att röra den fysiska utrustningen.
Vibe coding
Användning
Att skapa programvara genom att beskriva vad man vill ha i naturligt språk, och låta AI skriva koden. Ingen traditionell programmering krävs. Termen myntades av Andrej Karpathy (medgrundare, OpenAI) i februari 2025. Gränsen mellan "användare" och "utvecklare" suddas ut.
GuardrailsSäkerhetsgränser
Användning
Inbyggda eller pålagda begränsningar som hindrar en AI från att producera skadligt, felaktigt eller oönskat innehåll. Kan vara tekniska filter, policy-instruktioner i prompten, eller separata övervakningssystem. Du vill inte att din kundagent lovar rabatter som inte finns.

Infrastruktur

Moln-AICloud AI
Infrastruktur
Du använder en AI som körs på någon annans servrar (Anthropic, OpenAI, Google). Din data skickas dit, bearbetas, svaret kommer tillbaka. Fördelar: alltid senaste modellen, ingen egen hårdvara. Nackdel: data lämnar ditt hus.
Lokal AILocal / On-premise AI
Infrastruktur
Modellen körs på din egen hårdvara — din dator, din server, ditt nätverk. Ingen data lämnar byggnaden. Kräver tillräckligt minne (oftast 32+ GB RAM). Verktyg som Ollama och LM Studio gör det tillgängligt idag.Molnet är att hyra en verkstad. Lokalt är att äga din egen. Full kontroll, men du underhåller själv.
Edge AI
Infrastruktur
AI som körs direkt i enheten — en kamera, en sensor, en robot — istället för att skicka data till molnet. Snabbare respons, inget nätverksberoende. Kritiskt för realtid: en kvalitetskamera på linan som kasserar defekta delar på millisekunder kan inte vänta på ett svar från molnet.
GPUGraphics Processing Unit
Infrastruktur
Grafikprocessorn — ursprungligen designad för spel, men perfekt för AI-beräkningar eftersom den utför tusentals parallella operationer. NVIDIA dominerar. Tillgång till GPU:er är en av de största flaskhalsarna i AI-utvecklingen — TSMC:s chip- och ASML:s litografikapacitet begränsar takten.
ComputeBeräkningskraft
Infrastruktur
Samlingsterm för den beräkningskraft som krävs för att träna och köra AI-modeller. Compute är AI-världens olja: Amazon, Microsoft och Google investerar hundratals miljarder dollar i datacenter. Tillgång till compute avgör vem som kan bygga frontiermodeller — och vem som blir beroende.
APIApplication Programming Interface
Infrastruktur
Programmeringsgränssnitt — sättet din kod eller ditt system pratar med en AI-modell. Istället för att använda en chattwebbplats skickar du förfrågningar direkt, automatiserat. Så integrerar företag AI i sina system och arbetsflöden.
InferensInference
Infrastruktur
När modellen faktiskt används — genererar ett svar utifrån din input. Träning sker en gång (och kostar hundratals miljoner). Inferens sker varje gång du ställer en fråga. Inferenskostnaden sjunker dramatiskt — det är därför marginalkostnaden för kognition närmar sig noll.
LatensLatency
Infrastruktur
Tiden från att du skickar en fråga till att svaret börjar komma. Molntjänster har latens beroende på serveravstånd. Lokala och edge-modeller har lägre latens. I industriella tillämpningar kan latens vara skillnaden mellan att fånga en defekt och att missa den.

Samhälle & framtid

AGIArtificial General Intelligence
Samhälle
En AI som kan utföra vilken intellektuell uppgift som helst på mänsklig nivå. Definitionen är omstridd och har blivit en politisk markör. Oavsett exakt definition rör vi oss mot system med allt bredare förmågor — det är den rörelsen som spelar roll. Se essän AGI och vad det faktiskt innebär.
ASIArtificial Superintelligence
Samhälle
En AI som överträffar mänsklig intelligens i alla avseenden — inklusive vetenskaplig kreativitet, social kompetens och strategiskt tänkande. Fortfarande hypotetisk, men tidslinjer förkortas. Frågan är inte längre om utan när, och framför allt: vem som kontrollerar den.
SkalningslagarScaling laws
Samhälle
Observationen att AI-modeller blir förutsägbart bättre när man ökar data, beräkningskraft och modellstorlek. Därför investeras miljarder i datacenter. Debattfrågan: håller skalningslagarna, eller når vi ett tak?
Exponentiell utveckling
Samhälle
AI-förmågor accelererar. Det som tog ett år 2023 tar månader 2025 och veckor 2026. Människan tänker linjärt av naturen: vi extrapolerar gårdagens tempo framåt. Exponentiell utveckling innebär att verkligheten konsekvent överträffar våra förväntningar.
NollmarginalkostnadZero marginal cost
Samhälle
Kostnaden för varje extra enhet kognitivt arbete närmar sig noll — precis som internet gjorde med distribution av information. Konkret: ett ICCM-fokusdiagram som normalt kräver 16 timmars expertarbete kan levereras på 40 minuter. Se essän När kostnader pressas ned.
AI-alignmentAI Alignment / Safety
Samhälle
Forskningsfältet som arbetar med att säkerställa att AI-system gör det vi faktiskt vill — inte bara det vi råkade be om. Allt viktigare ju mer kapabla systemen blir. Anthropic grundades specifikt med alignment som kärnuppdrag.
Existentiell riskExistential risk / x-risk
Samhälle
Risken att AI på AGI- eller ASI-nivå orsakar irreversibel skada. Ledare för Anthropic, OpenAI och DeepMind har alla jämfört AI-risk med pandemier och kärnvapen. Delas i missalignment (AI:n gör inte vad vi vill) och misuse (AI:n används avsiktligt för skada).
Red teaming
Samhälle
Att systematiskt testa en AI genom att försöka få den att bete sig farligt eller felaktigt — innan den släpps. Som penetrationstestning av mjukvara, men för intelligenta system. En av grundpelarna i ansvarsfull AI-utveckling.
Digital feodalism
Samhälle
Ett scenario där ett fåtal teknikföretag kontrollerar den kognitiva infrastrukturen — modellerna, data, beräkningskraften — och resten av samhället blir beroende. Medeltida feodalism, men med servrar istället för jordbruksmark. Motmedlet: öppna modeller, lokal AI, politisk medvetenhet.
Post-arbetePost-labor economy
Samhälle
En ekonomi där allt mindre mänskligt lönearbete behövs för att upprätthålla produktionen. Inte nödvändigtvis en utopi — kräver nya svar om identitet, mening, fördelning och samhällsstruktur. Se essän Efter jobbet.
AI ActEU:s AI-förordning
Samhälle
EU:s lagstiftning som klassificerar AI-system efter risknivå och reglerar dem därefter. Förbjuder vissa tillämpningar (social poängsättning), kräver transparens och dokumentation. Viktig ram — men utformad för en verklighet som redan hunnit förändras. Huvuddeadline: 2 augusti 2026.
Inga begrepp matchade din sökning. Prova ett annat ord, eller föreslå ett begrepp.