Ordliste

AI-begreper forklart på rent norsk — fra fabrikkgulvet, ikke styrerommet.

Denne ordlisten finnes for at du skal kunne lese essayene på AI‑skiftet uten å snuble i sjargong. Forklaringene er bevisst jordnære — målet er at du skal forstå hva begrepene betyr i praksis, ikke at du skal kunne sitere en lærebok. Lista oppdateres løpende.

Grunnleggende

AIArtificial Intelligence
Grunnleggende
Samlebetegnelse på systemer som utfører oppgaver som tradisjonelt har krevd menneskelig tenkning — tolke tekst, ta beslutninger, identifisere mønstre. I dagens debatt mener man nesten alltid generativ AI, men begrepet er bredere og omfatter alt fra spamfiltre til selvkjørende biler.
Generativ AIGenerative AI / GenAI
Grunnleggende
AI som skaper nytt innhold — tekst, bilde, kode, lyd, video — i stedet for bare å klassifisere eller sortere. ChatGPT, Claude, Midjourney og Suno er alle generative. Det avgjørende: de automatiserer ikke beregning — de automatiserer kognisjon. Det er en kvalitativ forskjell.
Kognitiv automatiseringCognitive automation
Grunnleggende
Kjernen i skiftet: maskiner som utfører tankearbeid, ikke bare manuelt eller regnearbeid. Tolke rapporter, formulere analyser, gjøre vurderinger, skrive dokumenter. Det som gjør AI fundamentalt annerledes enn Excel, sveiseroboter eller ERP-systemer. Tidligere automatisering erstattet hender og regneark — denne erstatter deler av hodet.
Nevralt nettverkNeural network / Deep learning
Grunnleggende
Den matematiske arkitekturen bak moderne AI — lag på lag med beregningsnoder løst inspirert av hjernens synapser. "Deep learning" betyr at nettverket har mange lag. Alle store AI-systemer i dag — språkmodeller, bildegeneratorer, robotstyring — bygger på nevrale nettverk.
TransformerTransformer architecture
Grunnleggende
Arkitekturen bak i praksis alle moderne AI-modeller. Introdusert av Google i 2017 og løste et grunnproblem: hvordan en maskin skal forstå sammenheng i lange tekster. Grunnlaget for GPT ("Generative Pre-trained Transformer"), Claude, Gemini med flere.
LLMLarge Language Model
Grunnleggende
En stor språkmodell — kjernen i systemer som Claude og GPT. Trent på enorme tekstmengder for å forstå og produsere språk. "Stor" viser til milliarder av innlærte parametre.Som en person som har lest hele internett og kan formulere seg om det meste — men som aldri har sett din spesifikke fabrikk. Det er der RAG og fine-tuning kommer inn.
SLMSmall Language Model
Grunnleggende
Mindre språkmodeller — typisk 1–10 milliarder parametre. Raskere, billigere, kan kjøres lokalt. Ofte spesialiserte via fine-tuning eller destillering. Googles Gemma, Microsofts Phi og Metas Llama i mindre varianter er eksempler. Det er disse som gjør AI på fabrikkgulvet praktisk mulig uten skytjeneste.
Token
Grunnleggende
Den minste enheten en språkmodell arbeider med — rundt ¾ av et ord på engelsk, litt mindre på norsk. Når man sier at en modell har et "kontekstvindu på 200 000 tokens", betyr det hvor mye tekst den kan ha i arbeidsminnet samtidig: omtrent 150 000 ord, eller en tjukk bok.
Prompt
Grunnleggende
Instruksjonen du gir en AI. Kan være et enkelt spørsmål eller en detaljert brief med kontekst, rolle, format og begrensninger. Kvaliteten på prompten avgjør kvaliteten på svaret — akkurat som en god arbeidsinstruksjon gir bedre resultater enn "gjør noe bra".
HallusineringHallucination
Grunnleggende
Når en AI med overbevisende språk presenterer informasjon som ikke stemmer. Den "dikter opp" — ikke av vrangvilje, men fordi den optimaliserer for sammenhengende tekst, ikke for sannhet. Alvorlig i profesjonell bruk. Du må kunne verifisere.
Multimodal
Grunnleggende
En modell som forstår flere typer input — tekst, bilde, lyd, video, kode — i samme samtale. Claude kan for eksempel analysere et bilde av en maskins kontrollpanel, lese av verdiene og foreslå justeringer. Det er multimodalitet i praksis.
Deepfake
Grunnleggende
AI-generert lyd, bilde eller video som realistisk etterligner virkelige personer. Kan være en politikers stemme som sier ting hun aldri har sagt, eller et videomøte med en "sjef" som ikke finnes. EUs AI Act krever merking av slikt innhold.

Modeller & trening

GrunnmodellFoundation model
Modeller
En stor, generelt trent modell som deretter kan tilpasses spesifikke oppgaver — via fine-tuning, RAG eller prompt engineering. GPT-4, Claude, Gemini og Llama er grunnmodeller. Tenk på det som råstoffet: svært kraftig, men først virkelig brukbart når det formes for et formål.
ParametreParameters / Weights
Modeller
De innlærte verdiene i en modell — "rattene" som er justert under treningen. En modell med 70 milliarder parametre har 70 milliarder justerbare verdier. Flere parametre betyr vanligvis mer kapasitet, men krever mer minne og beregningskraft.
Fine-tuningFinjustering
Modeller
Man tar en generell modell og spesialtrener den på et avgrenset materiale — en bransjes dokumentasjon, en bedrifts prosesser, et fagspråk.Som å ta en generalistingeniør og gi hen et halvår med dypdykk i akkurat din prosess. Hen mister ingenting av bredden, men får et skarpt dyp.
LoRALow-Rank Adaptation
Modeller
En teknikk for å fine-tune store modeller uten å trene opp hele modellen på nytt. I stedet justerer man en liten del av parametrene. Gjør fine-tuning mulig med begrenset maskinvare.Som å bytte linse på et kamera i stedet for å bygge et nytt kamera.
RAGRetrieval-Augmented Generation
Modeller
AI-en henter relevante dokumenter før den svarer, i stedet for å gjette ut fra minnet. Du kobler modellen til dine egne datakilder — håndbøker, tegninger, prosesskort — og den søker i dem for hvert spørsmål.Forskjellen mellom å svare på en eksamensoppgave med åpne bøker og med stengte.
EmbeddingVektorinnebygging
Modeller
Teknikken med å gjøre om tekst (eller bilder, lyd) til tallvektorer som fanger mening, ikke bare ordrekkefølge. "Hund" og "valp" får like vektorer, mens "hund" og "traktor" havner langt fra hverandre. Bærebjelken i RAG-systemer — det er slik AI-en finner riktige dokumenter.
MoEMixture of Experts
Modeller
En modellarkitektur med flere spesialiserte "ekspertmoduler" der bare de relevante aktiveres per spørsmål. DeepSeek V4 har én billion parametre, men aktiverer bare 37 milliarder om gangen.Som et sykehus med spesialister — du møter ortopeden, ikke hele staben.
DestilleringDistillation
Modeller
En stor, kraftig modell lærer en mindre modell å etterligne atferden sin. Læreren genererer eksempler, eleven lærer mønstrene. Resultatet: en liten modell som presterer nær den store, men krever en brøkdel av ressursene. Det er slik de beste SLM-ene skapes.
KvantiseringQuantization
Modeller
Å redusere presisjonen i modellens parametre — for eksempel fra 16-bits til 4-bits tall — slik at den får plass i mindre minne og kjører raskere. Noe kvalitetstap, men ofte overraskende lite. Avgjørende teknikk for å kjøre store modeller lokalt.
DiffusjonsmodellDiffusion model
Modeller
Arkitekturen bak de fleste AI-bildegeneratorer (Midjourney, DALL-E, Stable Diffusion) og nå også video. Modellen lærer å gradvis "avstøye" et tilfeldig bilde inntil det matcher beskrivelsen din.
Syntetiske dataSynthetic data
Modeller
Data generert av AI i stedet for samlet inn fra virkeligheten. Brukes til å trene modeller når reelle data er dyre, sensitive eller utilstrekkelige. Én AI genererer tusenvis av varianter av for eksempel røntgenbilder eller fabrikksscenarier — og en annen AI trenes på dem.
RLHFReinforcement Learning from Human Feedback
Modeller
Metode for å tilpasse en modells atferd ut fra menneskelig tilbakemelding. Mennesker vurderer svarene — "dette var bra, dette var dårlig" — og modellen justeres. Det er derfor Claude og GPT føles hjelpsomme: de er trent til å opptre som gode samtalepartnere.
Reinforcement learningForsterkningslæring
Modeller
Læringsmetode der modellen lærer ved å prøve og få belønning eller straff. Grunnlaget i RLHF, men også i robotikk, spill-AI (AlphaGo) og autonome systemer. Særlig relevant for fysisk AI, der modellen må lære seg å navigere virkelige miljøer.
Emergente evnerEmergent abilities
Modeller
Evner som dukker opp uventet i en modell når den blir stor nok — uten at de er trent inn eksplisitt. En modell trent på tekst begynner plutselig å resonnere om matematikk eller løse logikkoppgaver den aldri har sett. Sentralt i debatten om veien til AGI.
Benchmark
Modeller
Standardisert test for å sammenligne AI-modellers ytelse. MMLU tester bred kunnskap, HumanEval tester koding, ARC tester resonnement. Nyttig som grovmål — men ingen benchmark fanger hvor bra en modell fungerer i din spesifikke bruk.
Åpen modellOpen-weight model
Modeller
En modell der vektene er fritt tilgjengelige til å laste ned og kjøre selv. Llama (Meta), Gemma (Google) og Mistral er eksempler. "Åpen" betyr ikke alltid helt fri — lisensvilkårene varierer. Motsatsen: lukkede modeller som GPT og Claude, som bare er tilgjengelige via API eller chat.

Bruk

AI-agentAI Agent
Bruk
Et AI-system som ikke bare svarer på spørsmål, men handler selvstendig — planlegger, utfører oppgaver, bruker verktøy, søker etter informasjon og itererer til jobben er ferdig.Forskjellen fra en vanlig chatbot er som forskjellen mellom å spørre noen om veibeskrivelse og å be noen kjøre deg dit.
Agentisk arbeidsflytAgentic workflow
Bruk
En arbeidsflyt der AI-agenter samarbeider — en samler data, en analyserer, en skriver rapport, en kvalitetssikrer. Systemer som Anthropics "Managed Agents" automatiserer hele kjeder av kognitivt arbeid, ikke bare enkeltsteg. Skiftet fra "modell som tjeneste" til "agent som tjeneste".
MCPModel Context Protocol
Bruk
Åpen protokoll (utviklet av Anthropic) som lar AI-modeller koble seg til eksterne systemer — databaser, API-er, filsystemer, verktøy. Gjør at en agent kan søke i ERP-et ditt, lese e-post eller oppdatere en database.Tenk USB-standard, men for AI-integrasjoner. En kontakt som passer overalt.
Prompt engineering
Bruk
Kunsten å formulere instruksjoner som gir best mulig resultat. Inkluderer teknikker som rollesetting ("du er en erfaren prosessingeniør"), few-shot-eksempler (vis hva du vil ha), chain-of-thought (be modellen tenke steg for steg) og strukturert output. Ikke magi — strukturert kommunikasjon.
KontekstvinduContext window
Bruk
Mengden informasjon en modell kan "holde i hodet" i en samtale. Måles i tokens. Claude har 200 000 tokens (omtrent en hel bok), DeepSeek V4 håndterer 1 million. Større vindu = mer materiale uten å miste tråden.
Resonnerende / tenkende modellerReasoning models
Bruk
Modeller som "tenker" steg for steg før de svarer — resonnerer seg gjennom problemet i stedet for å gi et direkte svar. OpenAIs o-serie og Claudes extended thinking er eksempler. Bedre på komplekse problemer, men langsommere og dyrere per spørsmål.
Fysisk AIPhysical AI / Embodied AI
Bruk
AI som virker i den fysiske verden — roboter, droner, selvkjørende kjøretøy, cobots på fabrikkgulvet. Modeller som forstår fysikkens lover godt nok til å styre bevegelser, gripe objekter og navigere virkelige miljøer. Se essayet Den fysiske fronten.
Digital tvillingDigital twin
Bruk
En virtuell kopi av en fysisk ressurs — maskin, produksjonslinje eller hel fabrikk — som oppdateres i sanntid med sensordata. Med AI kan tvillingen forutsi havari, simulere prosessendringer og optimalisere drift uten å røre det fysiske utstyret.
Vibe coding
Bruk
Å lage programvare ved å beskrive hva man vil ha på naturlig språk, og la AI skrive koden. Ingen tradisjonell programmering kreves. Begrepet ble lansert av Andrej Karpathy (medgrunnlegger, OpenAI) i februar 2025. Grensen mellom "bruker" og "utvikler" viskes ut.
GuardrailsSikkerhetsgrenser
Bruk
Innebygde eller pålagte begrensninger som hindrer en AI i å produsere skadelig, feilaktig eller uønsket innhold. Kan være tekniske filtre, policyinstruksjoner i prompten eller separate overvåkningssystemer. Du vil ikke at kundeagenten din lover rabatter som ikke finnes.

Infrastruktur

Sky-AICloud AI
Infrastruktur
Du bruker en AI som kjører på noen andres servere (Anthropic, OpenAI, Google). Dataene dine sendes dit, bearbeides, svaret kommer tilbake. Fordeler: alltid nyeste modell, ingen egen maskinvare. Ulempe: dataene forlater huset.
Lokal AILocal / On-premise AI
Infrastruktur
Modellen kjører på din egen maskinvare — din datamaskin, din server, ditt nettverk. Ingen data forlater bygningen. Krever nok minne (oftest 32+ GB RAM). Verktøy som Ollama og LM Studio gjør det tilgjengelig i dag.Skyen er å leie et verksted. Lokalt er å eie sitt eget. Full kontroll, men du vedlikeholder selv.
Edge AI
Infrastruktur
AI som kjører direkte i enheten — et kamera, en sensor, en robot — i stedet for å sende data til skyen. Raskere respons, ingen nettavhengighet. Kritisk for sanntid: et kvalitetskamera på linja som kasserer defekte deler på millisekunder kan ikke vente på et svar fra skyen.
GPUGraphics Processing Unit
Infrastruktur
Grafikkprosessoren — opprinnelig designet for spill, men perfekt for AI-beregninger fordi den utfører tusenvis av parallelle operasjoner. NVIDIA dominerer. Tilgang til GPU-er er en av de største flaskehalsene i AI-utviklingen — TSMCs brikkeproduksjon og ASMLs litografikapasitet setter takten.
ComputeBeregningskraft
Infrastruktur
Samlebetegnelse for beregningskraften som trengs for å trene og kjøre AI-modeller. Compute er AI-verdens olje: Amazon, Microsoft og Google investerer hundrevis av milliarder dollar i datasentre. Tilgang til compute avgjør hvem som kan bygge frontiermodeller — og hvem som blir avhengig.
APIApplication Programming Interface
Infrastruktur
Programmeringsgrensesnitt — måten koden eller systemet ditt snakker med en AI-modell. I stedet for å bruke et chat-nettsted sender du forespørsler direkte, automatisert. Slik integrerer bedrifter AI i systemene og arbeidsflytene sine.
InferensInference
Infrastruktur
Når modellen faktisk brukes — genererer et svar ut fra din input. Trening skjer én gang (og koster hundrevis av millioner). Inferens skjer hver gang du stiller et spørsmål. Inferenskostnaden synker dramatisk — det er derfor marginalkostnaden for kognisjon nærmer seg null.
LatensLatency
Infrastruktur
Tiden fra du sender en forespørsel til svaret begynner å komme. Skytjenester har latens avhengig av serveravstand. Lokale og edge-modeller har lavere latens. I industrielle tillempninger kan latens være forskjellen mellom å fange en defekt og å bomme.

Samfunn & framtid

AGIArtificial General Intelligence
Samfunn
En AI som kan utføre hvilken som helst intellektuell oppgave på menneskelig nivå. Definisjonen er omstridt og har blitt en politisk markør. Uansett eksakt definisjon beveger vi oss mot systemer med stadig bredere evner — det er den bevegelsen som betyr noe. Se essayet AGI og hva det faktisk betyr.
ASIArtificial Superintelligence
Samfunn
En AI som overgår menneskelig intelligens i alle henseender — inkludert vitenskapelig kreativitet, sosial kompetanse og strategisk tenkning. Fremdeles hypotetisk, men tidslinjer forkortes. Spørsmålet er ikke lenger om, men når — og framfor alt: hvem som kontrollerer den.
SkaleringsloverScaling laws
Samfunn
Observasjonen at AI-modeller blir forutsigbart bedre når man øker data, beregningskraft og modellstørrelse. Derfor investeres det milliarder i datasentre. Debattspørsmålet: holder skaleringslovene, eller treffer vi et tak?
Eksponentiell utvikling
Samfunn
AI-evner akselererer. Det som tok et år i 2023 tar måneder i 2025 og uker i 2026. Mennesket tenker lineært av natur: vi ekstrapolerer gårsdagens tempo framover. Eksponentiell utvikling betyr at virkeligheten konsekvent overgår forventningene våre.
NullmarginalkostnadZero marginal cost
Samfunn
Kostnaden for hver ekstra enhet kognitivt arbeid nærmer seg null — akkurat som internett gjorde med distribusjon av informasjon. Konkret: et ICCM-fokusdiagram som vanligvis krever 16 timers ekspertarbeid kan leveres på 40 minutter. Se essayet Når kostnader presses ned.
AI-alignmentAI Alignment / Safety
Samfunn
Forskningsfeltet som arbeider med å sikre at AI-systemer gjør det vi faktisk vil — ikke bare det vi tilfeldigvis ba om. Stadig viktigere etter som systemene blir mer kapable. Anthropic ble grunnlagt spesifikt med alignment som kjerneoppdrag.
Eksistensiell risikoExistential risk / x-risk
Samfunn
Risikoen for at AI på AGI- eller ASI-nivå forårsaker irreversibel skade. Lederne i Anthropic, OpenAI og DeepMind har alle sammenlignet AI-risiko med pandemier og atomvåpen. Deles i missalignment (AI-en gjør ikke det vi vil) og misuse (AI-en brukes bevisst til skade).
Red teaming
Samfunn
Å systematisk teste en AI ved å prøve å få den til å oppføre seg farlig eller feilaktig — før den slippes. Som penetrasjonstesting av programvare, men for intelligente systemer. En av grunnpilarene i ansvarlig AI-utvikling.
Digital føydalisme
Samfunn
Et scenario der et fåtall teknologiselskaper kontrollerer den kognitive infrastrukturen — modellene, dataene, beregningskraften — og resten av samfunnet blir avhengig. Middelaldersk føydalisme, men med servere i stedet for jord. Motmiddelet: åpne modeller, lokal AI, politisk bevissthet.
Post-arbeidPost-labor economy
Samfunn
En økonomi der stadig mindre menneskelig lønnsarbeid trengs for å opprettholde produksjonen. Ikke nødvendigvis en utopi — krever nye svar om identitet, mening, fordeling og samfunnsstruktur. Se essayet Etter jobben.
AI ActEUs AI-forordning
Samfunn
EUs lovgivning som klassifiserer AI-systemer etter risikonivå og regulerer dem deretter. Forbyr visse anvendelser (sosial scoring), krever åpenhet og dokumentasjon. Viktig rammeverk — men utformet for en virkelighet som allerede har forandret seg. Hovedfrist: 2. august 2026.
Ingen begreper matchet søket ditt. Prøv et annet ord, eller foreslå et begrep.