Lag · OB / ORDBOG

Ordbog — AI-begreber for produktledere

Modeller og arkitektur

LLM (Large Language Model)

AI-modeller trænet på enorme mængder tekst. Forudser det næste sandsynlige ord. ChatGPT, Claude, Gemini er alle LLM’er.

På listen fordi: Når folk siger "AI" i produktkontekst, mener de næsten altid en LLM. Du skal kende ordet.

Foundation model

En stor, generel AI-model der er trænet bredt og kan tilpasses til specifikke opgaver. Claude, GPT, Gemini.

På listen fordi: De fleste virksomheder bygger ovenpå en foundation model i stedet for at træne deres egen. Det er en strategisk afhængighed du skal kunne se.

Context window

Hvor meget tekst en AI-model kan rumme i én samtale. Måles i tokens.

På listen fordi: Det sætter de praktiske grænser for hvad AI kan gøre i jeres produkt. Større er ikke altid bedre — modeller bliver dårligere til at huske detaljer i meget lang kontekst.

Token

Enheden AI-modeller arbejder i. Et token er omtrent 0,75 engelske ord.

På listen fordi: Det er sådan AI faktureres. Forstår du tokens, kan du estimere omkostninger. Forstår du dem ikke, får du regningen som overraskelse.

Embedding

Tekst omdannet til tal — en lang liste af koordinater der placerer betydningen af teksten i et matematisk rum.

På listen fordi: Det er motoren bag intelligent søgning og fundamentet for RAG. Hvis dit produkt skal søge meningsfuldt i jeres egne dokumenter, ender I her.

RAG (Retrieval-Augmented Generation)

En arkitektur hvor AI henter relevante dokumenter fra jeres egen vidensbase og bruger dem til at svare. AI’en "slår op" før den svarer.

På listen fordi: Det er den mest udbredte måde at få AI til at svare ud fra jeres specifikke data. De fleste interne AI-assistenter bygger på RAG i en eller anden form.

Værktøjer og protokoller

MCP (Model Context Protocol)

Anthropics åbne standard for hvordan en AI-model får adgang til eksterne data og værktøjer — fx jeres CRM, Notion, Gmail.

På listen fordi: Det er ved at blive industristandard. Hvis I vælger en propriær løsning over MCP, kan I blive låst til én leverandør. Strategisk valg, ikke kun teknisk.

Agent

Et AI-system der kan udføre opgaver autonomt over flere skridt — beslutte hvad der skal gøres, bruge værktøjer, tjekke om resultatet er rigtigt, og prøve igen.

På listen fordi: Det er forskellen mellem AI som chatbot og AI som medarbejder. De fleste "AI-features" der bygges lige nu, er agenter — selvom marketing kalder det noget andet.

Tool calling / Function calling

AI-modellens evne til at kalde eksterne funktioner — slå op i en database, sende en mail, regne på et tal.

På listen fordi: Det er sådan en agent faktisk gør noget. Uden tool calling er AI kun tekstgenerering.

Prompt engineering

Disciplinen at formulere instruktioner til AI så modellen leverer det du vil have.

På listen fordi: Det er en reel kompetence — ikke en eftermiddagsskill. Forskningen viser at det forudsiger output-kvalitet.

System prompt

Den underliggende instruktion der definerer hvordan AI’en skal opføre sig — dens rolle, regler, grænser.

På listen fordi: Det er det vigtigste designvalg når du bygger noget oven på en LLM. Et godt system prompt forvandler en generisk model til et specifikt produkt.

Praksis og evaluering

Eval (Evaluation)

Systematisk test af om en AI-model gør det rigtige. Tænk: enhedstests for sandsynlighedsbaserede systemer.

På listen fordi: Du kan ikke debugge en LLM som almindelig kode. Eval er forudsætningen for at forbedre AI-features systematisk i stedet for ved fornemmelse.

Hallucination

Når AI genererer noget der ser troværdigt ud, men er forkert eller opdigtet.

På listen fordi: Det er den største enkelt-trussel mod tillid i AI-produkter. Folk tilgiver åbenlyse fejl. De tilgiver ikke fejl der ser rigtige ud men er løgn.

Grounding

Praksissen at forankre AI’s svar i specifikke, verificerbare kilder — fx jeres dokumenter, en database, eller realtidsdata.

På listen fordi: Det er hvordan du gør AI brugbar i seriøs produktkontekst. En AI der citerer hvor den ved det fra, er et værktøj. En AI der bare "ved noget" er en risiko.

Fine-tuning vs. prompting

To måder at få AI til at gøre noget specifikt. Fine-tuning er at træne modellen videre på jeres data. Prompting er at instruere uden at ændre modellen.

På listen fordi: De fleste starter med fine-tuning fordi det lyder mere "rigtigt". Best practice er det modsatte: prompt indtil I har bevis for at det ikke er nok.

Strategi og governance

AI literacy

Den kollektive evne i organisationen til at forstå, vurdere og bruge AI ansvarligt. Hos hele organisationen — ikke kun teknikerne.

På listen fordi: Det er den underrapporterede flaskehals i de fleste "AI-transformationer". Folk kan ikke bruge værktøjer de ikke forstår.

Vibe coding

At bygge software ved at beskrive hvad du vil have, og lade AI generere koden — uden selv at skrive den linje for linje.

På listen fordi: Det er ved at flytte hvem der kan bygge software. Produktledere, designere og foundere bygger nu apps på en weekend. Du skal kende termen.

Human-in-the-loop

Et designmønster hvor AI tager skridt mod en opgave, men et menneske godkender, retter eller afslutter før noget sker eksternt.

På listen fordi: Det er der hvor de fleste seriøse AI-features bør lande de næste år — særligt i regulerede industrier.

Guardrails

De begrænsninger I bygger ind i et AI-system for at forhindre uønskede outputs.

På listen fordi: Det er produktbeslutninger forklædt som tekniske valg. Hver guardrail er et svar på "hvad må vores AI ikke gøre?" — og det bør produktorganisationen være med til at besvare.

Inference

Det at en AI-model faktisk genererer et svar — det øjeblik hvor input går ind og output kommer ud.

På listen fordi: Inference er hvor AI koster penge i produktion. Træning er en engangsudgift; inference er det I betaler hver gang en bruger interagerer med jeres produkt.

Mangler der noget? Skriv til mig. Jeg tilføjer løbende.