Denne ordlisten finnes for at du skal kunne lese essayene på AI‑skiftet uten å snuble i sjargong. Forklaringene er bevisst jordnære — målet er at du skal forstå hva begrepene betyr i praksis, ikke at du skal kunne sitere en lærebok. Lista oppdateres løpende.
Grunnleggende
Samlebetegnelse på systemer som utfører oppgaver som tradisjonelt har krevd menneskelig tenkning — tolke tekst, ta beslutninger, identifisere mønstre. I dagens debatt mener man nesten alltid generativ AI, men begrepet er bredere og omfatter alt fra spamfiltre til selvkjørende biler.
AI som skaper nytt innhold — tekst, bilde, kode, lyd, video — i stedet for bare å klassifisere eller sortere. ChatGPT, Claude, Midjourney og Suno er alle generative. Det avgjørende: de automatiserer ikke beregning — de automatiserer kognisjon. Det er en kvalitativ forskjell.
Kjernen i skiftet: maskiner som utfører tankearbeid, ikke bare manuelt eller regnearbeid. Tolke rapporter, formulere analyser, gjøre vurderinger, skrive dokumenter. Det som gjør AI fundamentalt annerledes enn Excel, sveiseroboter eller ERP-systemer. Tidligere automatisering erstattet hender og regneark — denne erstatter deler av hodet.
Den matematiske arkitekturen bak moderne AI — lag på lag med beregningsnoder løst inspirert av hjernens synapser. "Deep learning" betyr at nettverket har mange lag. Alle store AI-systemer i dag — språkmodeller, bildegeneratorer, robotstyring — bygger på nevrale nettverk.
Arkitekturen bak i praksis alle moderne AI-modeller. Introdusert av Google i 2017 og løste et grunnproblem: hvordan en maskin skal forstå sammenheng i lange tekster. Grunnlaget for GPT ("Generative Pre-trained Transformer"), Claude, Gemini med flere.
En stor språkmodell — kjernen i systemer som Claude og GPT. Trent på enorme tekstmengder for å forstå og produsere språk. "Stor" viser til milliarder av innlærte parametre.Som en person som har lest hele internett og kan formulere seg om det meste — men som aldri har sett din spesifikke fabrikk. Det er der RAG og fine-tuning kommer inn.
Mindre språkmodeller — typisk 1–10 milliarder parametre. Raskere, billigere, kan kjøres lokalt. Ofte spesialiserte via fine-tuning eller destillering. Googles Gemma, Microsofts Phi og Metas Llama i mindre varianter er eksempler. Det er disse som gjør AI på fabrikkgulvet praktisk mulig uten skytjeneste.
Den minste enheten en språkmodell arbeider med — rundt ¾ av et ord på engelsk, litt mindre på norsk. Når man sier at en modell har et "kontekstvindu på 200 000 tokens", betyr det hvor mye tekst den kan ha i arbeidsminnet samtidig: omtrent 150 000 ord, eller en tjukk bok.
Instruksjonen du gir en AI. Kan være et enkelt spørsmål eller en detaljert brief med kontekst, rolle, format og begrensninger. Kvaliteten på prompten avgjør kvaliteten på svaret — akkurat som en god arbeidsinstruksjon gir bedre resultater enn "gjør noe bra".
Når en AI med overbevisende språk presenterer informasjon som ikke stemmer. Den "dikter opp" — ikke av vrangvilje, men fordi den optimaliserer for sammenhengende tekst, ikke for sannhet. Alvorlig i profesjonell bruk. Du må kunne verifisere.
En modell som forstår flere typer input — tekst, bilde, lyd, video, kode — i samme samtale. Claude kan for eksempel analysere et bilde av en maskins kontrollpanel, lese av verdiene og foreslå justeringer. Det er multimodalitet i praksis.
AI-generert lyd, bilde eller video som realistisk etterligner virkelige personer. Kan være en politikers stemme som sier ting hun aldri har sagt, eller et videomøte med en "sjef" som ikke finnes. EUs AI Act krever merking av slikt innhold.
Modeller & trening
En stor, generelt trent modell som deretter kan tilpasses spesifikke oppgaver — via fine-tuning, RAG eller prompt engineering. GPT-4, Claude, Gemini og Llama er grunnmodeller. Tenk på det som råstoffet: svært kraftig, men først virkelig brukbart når det formes for et formål.
De innlærte verdiene i en modell — "rattene" som er justert under treningen. En modell med 70 milliarder parametre har 70 milliarder justerbare verdier. Flere parametre betyr vanligvis mer kapasitet, men krever mer minne og beregningskraft.
Man tar en generell modell og spesialtrener den på et avgrenset materiale — en bransjes dokumentasjon, en bedrifts prosesser, et fagspråk.Som å ta en generalistingeniør og gi hen et halvår med dypdykk i akkurat din prosess. Hen mister ingenting av bredden, men får et skarpt dyp.
En teknikk for å fine-tune store modeller uten å trene opp hele modellen på nytt. I stedet justerer man en liten del av parametrene. Gjør fine-tuning mulig med begrenset maskinvare.Som å bytte linse på et kamera i stedet for å bygge et nytt kamera.
AI-en henter relevante dokumenter før den svarer, i stedet for å gjette ut fra minnet. Du kobler modellen til dine egne datakilder — håndbøker, tegninger, prosesskort — og den søker i dem for hvert spørsmål.Forskjellen mellom å svare på en eksamensoppgave med åpne bøker og med stengte.
Teknikken med å gjøre om tekst (eller bilder, lyd) til tallvektorer som fanger mening, ikke bare ordrekkefølge. "Hund" og "valp" får like vektorer, mens "hund" og "traktor" havner langt fra hverandre. Bærebjelken i RAG-systemer — det er slik AI-en finner riktige dokumenter.
En modellarkitektur med flere spesialiserte "ekspertmoduler" der bare de relevante aktiveres per spørsmål. DeepSeek V4 har én billion parametre, men aktiverer bare 37 milliarder om gangen.Som et sykehus med spesialister — du møter ortopeden, ikke hele staben.
En stor, kraftig modell lærer en mindre modell å etterligne atferden sin. Læreren genererer eksempler, eleven lærer mønstrene. Resultatet: en liten modell som presterer nær den store, men krever en brøkdel av ressursene. Det er slik de beste SLM-ene skapes.
Å redusere presisjonen i modellens parametre — for eksempel fra 16-bits til 4-bits tall — slik at den får plass i mindre minne og kjører raskere. Noe kvalitetstap, men ofte overraskende lite. Avgjørende teknikk for å kjøre store modeller lokalt.
Arkitekturen bak de fleste AI-bildegeneratorer (Midjourney, DALL-E, Stable Diffusion) og nå også video. Modellen lærer å gradvis "avstøye" et tilfeldig bilde inntil det matcher beskrivelsen din.
Data generert av AI i stedet for samlet inn fra virkeligheten. Brukes til å trene modeller når reelle data er dyre, sensitive eller utilstrekkelige. Én AI genererer tusenvis av varianter av for eksempel røntgenbilder eller fabrikksscenarier — og en annen AI trenes på dem.
Metode for å tilpasse en modells atferd ut fra menneskelig tilbakemelding. Mennesker vurderer svarene — "dette var bra, dette var dårlig" — og modellen justeres. Det er derfor Claude og GPT føles hjelpsomme: de er trent til å opptre som gode samtalepartnere.
Læringsmetode der modellen lærer ved å prøve og få belønning eller straff. Grunnlaget i RLHF, men også i robotikk, spill-AI (AlphaGo) og autonome systemer. Særlig relevant for fysisk AI, der modellen må lære seg å navigere virkelige miljøer.
Evner som dukker opp uventet i en modell når den blir stor nok — uten at de er trent inn eksplisitt. En modell trent på tekst begynner plutselig å resonnere om matematikk eller løse logikkoppgaver den aldri har sett. Sentralt i debatten om veien til AGI.
Standardisert test for å sammenligne AI-modellers ytelse. MMLU tester bred kunnskap, HumanEval tester koding, ARC tester resonnement. Nyttig som grovmål — men ingen benchmark fanger hvor bra en modell fungerer i din spesifikke bruk.
En modell der vektene er fritt tilgjengelige til å laste ned og kjøre selv. Llama (Meta), Gemma (Google) og Mistral er eksempler. "Åpen" betyr ikke alltid helt fri — lisensvilkårene varierer. Motsatsen: lukkede modeller som GPT og Claude, som bare er tilgjengelige via API eller chat.
Bruk
Et AI-system som ikke bare svarer på spørsmål, men handler selvstendig — planlegger, utfører oppgaver, bruker verktøy, søker etter informasjon og itererer til jobben er ferdig.Forskjellen fra en vanlig chatbot er som forskjellen mellom å spørre noen om veibeskrivelse og å be noen kjøre deg dit.
En arbeidsflyt der AI-agenter samarbeider — en samler data, en analyserer, en skriver rapport, en kvalitetssikrer. Systemer som Anthropics "Managed Agents" automatiserer hele kjeder av kognitivt arbeid, ikke bare enkeltsteg. Skiftet fra "modell som tjeneste" til "agent som tjeneste".
Åpen protokoll (utviklet av Anthropic) som lar AI-modeller koble seg til eksterne systemer — databaser, API-er, filsystemer, verktøy. Gjør at en agent kan søke i ERP-et ditt, lese e-post eller oppdatere en database.Tenk USB-standard, men for AI-integrasjoner. En kontakt som passer overalt.
Kunsten å formulere instruksjoner som gir best mulig resultat. Inkluderer teknikker som rollesetting ("du er en erfaren prosessingeniør"), few-shot-eksempler (vis hva du vil ha), chain-of-thought (be modellen tenke steg for steg) og strukturert output. Ikke magi — strukturert kommunikasjon.
Mengden informasjon en modell kan "holde i hodet" i en samtale. Måles i tokens. Claude har 200 000 tokens (omtrent en hel bok), DeepSeek V4 håndterer 1 million. Større vindu = mer materiale uten å miste tråden.
Modeller som "tenker" steg for steg før de svarer — resonnerer seg gjennom problemet i stedet for å gi et direkte svar. OpenAIs o-serie og Claudes extended thinking er eksempler. Bedre på komplekse problemer, men langsommere og dyrere per spørsmål.
AI som virker i den fysiske verden — roboter, droner, selvkjørende kjøretøy, cobots på fabrikkgulvet. Modeller som forstår fysikkens lover godt nok til å styre bevegelser, gripe objekter og navigere virkelige miljøer. Se essayet
Den fysiske fronten.
En virtuell kopi av en fysisk ressurs — maskin, produksjonslinje eller hel fabrikk — som oppdateres i sanntid med sensordata. Med AI kan tvillingen forutsi havari, simulere prosessendringer og optimalisere drift uten å røre det fysiske utstyret.
Å lage programvare ved å beskrive hva man vil ha på naturlig språk, og la AI skrive koden. Ingen tradisjonell programmering kreves. Begrepet ble lansert av Andrej Karpathy (medgrunnlegger, OpenAI) i februar 2025. Grensen mellom "bruker" og "utvikler" viskes ut.
Innebygde eller pålagte begrensninger som hindrer en AI i å produsere skadelig, feilaktig eller uønsket innhold. Kan være tekniske filtre, policyinstruksjoner i prompten eller separate overvåkningssystemer. Du vil ikke at kundeagenten din lover rabatter som ikke finnes.
Infrastruktur
Du bruker en AI som kjører på noen andres servere (Anthropic, OpenAI, Google). Dataene dine sendes dit, bearbeides, svaret kommer tilbake. Fordeler: alltid nyeste modell, ingen egen maskinvare. Ulempe: dataene forlater huset.
Modellen kjører på din egen maskinvare — din datamaskin, din server, ditt nettverk. Ingen data forlater bygningen. Krever nok minne (oftest 32+ GB RAM). Verktøy som Ollama og LM Studio gjør det tilgjengelig i dag.Skyen er å leie et verksted. Lokalt er å eie sitt eget. Full kontroll, men du vedlikeholder selv.
AI som kjører direkte i enheten — et kamera, en sensor, en robot — i stedet for å sende data til skyen. Raskere respons, ingen nettavhengighet. Kritisk for sanntid: et kvalitetskamera på linja som kasserer defekte deler på millisekunder kan ikke vente på et svar fra skyen.
Grafikkprosessoren — opprinnelig designet for spill, men perfekt for AI-beregninger fordi den utfører tusenvis av parallelle operasjoner. NVIDIA dominerer. Tilgang til GPU-er er en av de største flaskehalsene i AI-utviklingen — TSMCs brikkeproduksjon og ASMLs litografikapasitet setter takten.
Samlebetegnelse for beregningskraften som trengs for å trene og kjøre AI-modeller. Compute er AI-verdens olje: Amazon, Microsoft og Google investerer hundrevis av milliarder dollar i datasentre. Tilgang til compute avgjør hvem som kan bygge frontiermodeller — og hvem som blir avhengig.
Programmeringsgrensesnitt — måten koden eller systemet ditt snakker med en AI-modell. I stedet for å bruke et chat-nettsted sender du forespørsler direkte, automatisert. Slik integrerer bedrifter AI i systemene og arbeidsflytene sine.
Når modellen faktisk brukes — genererer et svar ut fra din input. Trening skjer én gang (og koster hundrevis av millioner). Inferens skjer hver gang du stiller et spørsmål. Inferenskostnaden synker dramatisk — det er derfor marginalkostnaden for kognisjon nærmer seg null.
Tiden fra du sender en forespørsel til svaret begynner å komme. Skytjenester har latens avhengig av serveravstand. Lokale og edge-modeller har lavere latens. I industrielle tillempninger kan latens være forskjellen mellom å fange en defekt og å bomme.
Samfunn & framtid
En AI som kan utføre hvilken som helst intellektuell oppgave på menneskelig nivå. Definisjonen er omstridt og har blitt en politisk markør. Uansett eksakt definisjon beveger vi oss mot systemer med stadig bredere evner — det er den bevegelsen som betyr noe. Se essayet
AGI og hva det faktisk betyr.
En AI som overgår menneskelig intelligens i alle henseender — inkludert vitenskapelig kreativitet, sosial kompetanse og strategisk tenkning. Fremdeles hypotetisk, men tidslinjer forkortes. Spørsmålet er ikke lenger om, men når — og framfor alt: hvem som kontrollerer den.
Observasjonen at AI-modeller blir forutsigbart bedre når man øker data, beregningskraft og modellstørrelse. Derfor investeres det milliarder i datasentre. Debattspørsmålet: holder skaleringslovene, eller treffer vi et tak?
AI-evner akselererer. Det som tok et år i 2023 tar måneder i 2025 og uker i 2026. Mennesket tenker lineært av natur: vi ekstrapolerer gårsdagens tempo framover. Eksponentiell utvikling betyr at virkeligheten konsekvent overgår forventningene våre.
Kostnaden for hver ekstra enhet kognitivt arbeid nærmer seg null — akkurat som internett gjorde med distribusjon av informasjon. Konkret: et ICCM-fokusdiagram som vanligvis krever 16 timers ekspertarbeid kan leveres på 40 minutter. Se essayet
Når kostnader presses ned.
Forskningsfeltet som arbeider med å sikre at AI-systemer gjør det vi faktisk vil — ikke bare det vi tilfeldigvis ba om. Stadig viktigere etter som systemene blir mer kapable. Anthropic ble grunnlagt spesifikt med alignment som kjerneoppdrag.
Risikoen for at AI på AGI- eller ASI-nivå forårsaker irreversibel skade. Lederne i Anthropic, OpenAI og DeepMind har alle sammenlignet AI-risiko med pandemier og atomvåpen. Deles i missalignment (AI-en gjør ikke det vi vil) og misuse (AI-en brukes bevisst til skade).
Å systematisk teste en AI ved å prøve å få den til å oppføre seg farlig eller feilaktig — før den slippes. Som penetrasjonstesting av programvare, men for intelligente systemer. En av grunnpilarene i ansvarlig AI-utvikling.
Et scenario der et fåtall teknologiselskaper kontrollerer den kognitive infrastrukturen — modellene, dataene, beregningskraften — og resten av samfunnet blir avhengig. Middelaldersk føydalisme, men med servere i stedet for jord. Motmiddelet: åpne modeller, lokal AI, politisk bevissthet.
En økonomi der stadig mindre menneskelig lønnsarbeid trengs for å opprettholde produksjonen. Ikke nødvendigvis en utopi — krever nye svar om identitet, mening, fordeling og samfunnsstruktur. Se essayet
Etter jobben.
EUs lovgivning som klassifiserer AI-systemer etter risikonivå og regulerer dem deretter. Forbyr visse anvendelser (sosial scoring), krever åpenhet og dokumentasjon. Viktig rammeverk — men utformet for en virkelighet som allerede har forandret seg. Hovedfrist: 2. august 2026.