LLM (Large Language Model)
AI-modeller trænet på enorme mængder tekst. Forudser det næste sandsynlige ord. ChatGPT, Claude, Gemini er alle LLM’er.
På listen fordi: Når folk siger "AI" i produktkontekst, mener de næsten altid en LLM. Du skal kende ordet.
Foundation model
En stor, generel AI-model der er trænet bredt og kan tilpasses til specifikke opgaver. Claude, GPT, Gemini.
På listen fordi: De fleste virksomheder bygger ovenpå en foundation model i stedet for at træne deres egen. Det er en strategisk afhængighed du skal kunne se.
Context window
Hvor meget tekst en AI-model kan rumme i én samtale. Måles i tokens.
På listen fordi: Det sætter de praktiske grænser for hvad AI kan gøre i jeres produkt. Større er ikke altid bedre — modeller bliver dårligere til at huske detaljer i meget lang kontekst.
Token
Enheden AI-modeller arbejder i. Et token er omtrent 0,75 engelske ord.
På listen fordi: Det er sådan AI faktureres. Forstår du tokens, kan du estimere omkostninger. Forstår du dem ikke, får du regningen som overraskelse.
Embedding
Tekst omdannet til tal — en lang liste af koordinater der placerer betydningen af teksten i et matematisk rum.
På listen fordi: Det er motoren bag intelligent søgning og fundamentet for RAG. Hvis dit produkt skal søge meningsfuldt i jeres egne dokumenter, ender I her.
RAG (Retrieval-Augmented Generation)
En arkitektur hvor AI henter relevante dokumenter fra jeres egen vidensbase og bruger dem til at svare. AI’en "slår op" før den svarer.
På listen fordi: Det er den mest udbredte måde at få AI til at svare ud fra jeres specifikke data. De fleste interne AI-assistenter bygger på RAG i en eller anden form.