Hvad er llms.txt?
llms.txt er en simpel tekstfil, der placeres på rodniveauet af dit domæne (f.eks. https://ditsite.dk/llms.txt), og dens formål er at guide AI-systemer direkte til det indhold, du ønsker, de skal læse, forstå og potentielt citere i svar. Hvor robots.txt kontrollerer, hvad crawlers må indeksere, og sitemap.xml fortæller søgemaskiner hvilke sider der findes, fungerer llms.txt som en form for indholdsvejviser specifikt til AI-modeller.
Tænk på det som et skattekort for AI. I stedet for at bede modellen om at finde dine vigtigste sider ved at gå vilkårligt rundt på sitet, giver llms.txt en nedskrevet liste over de URL’er, du vurderer som mest værdifulde, strukturerede og egnede til at blive brugt i AI-svar.
llms.txt er ikke robots.txt
Det er vigtigt at forstå forskellen. Robots.txt siger til crawlere, hvad de ikke skal besøge. llms.txt siger til AI, hvad de skal prioritere. Det er ikke et værktøj til at blokere adgang eller skjule sider. I stedet hjælper det med at optimere, hvordan AI forståer og fortolker dine vigtigste sider, når den aktivt genererer svar til brugere.
Hvorfor betyder llms.txt noget nu?
AI’er som ChatGPT, Gemini, Perplexity og Googles AI Overviews trækker i stigende grad på webindhold for at levere svar. De scanner ikke hele nettet i dybden som traditionelle søgemaskiner. De har en kontekstgrænse, de arbejder med, når de laver svar. Derfor kan det være en udfordring for dem at finde lige netop dit bedste indhold, hvis det ligger begravet dybt eller ikke er let at navigere.
llms.txt løser det ved at give modellerne en prioriteret liste over dine stærkeste, mest værdifulde sider, så de ikke misser vigtige svarbare resurser. Det øger sandsynligheden for, at AI-systemer citerer, bruger eller refererer til dit indhold i deres svar, hvilket i stigende grad er en del af den digitale kunderejse.
Hvordan bygger du et llms.txt
En llms.txt er ikke kompliceret. Den skal være en klart struktureret liste over dine top-ressourcer, inklusive en kort kontekstbeskrivelse. Filen bør:
- Ligge i roden af dit domæne.
- Bruges til at liste sider, der er bedst egnet til AI-forståelse og citation.
- Indeholde overskuelige beskrivelser, så modellen forstår, hvad hver URL handler om.
Det er ikke sikkert, at AI-modeller endnu aktivt bruger llms.txt automatisk på samme måde som robots.txt, men det bliver et stadig vigtigere signal for fremtidens AI-synlighed. Det sender et klart budskab til modellerne om, hvilke sider der er højt prioriterede.
llms.txt som en del af fremtidens SEO
Når AI bliver den primære måde, brugere får svar på deres spørgsmål, betyder det, at synlighed ikke længere kun handler om at blive fundet via traditionelle søgeord og placeringer. Det handler om at blive valgt som en autoritativ kilde i de svar, AI leverer. llms.txt kan blive en af de vigtigste måder at signalere netop det til store sprogmodeller.
For virksomheder betyder det, at SEO og content strategier skal udvides til også at omfatte AI-venlige signaler og metadata, så modeller har det bedste grundlag for at inkludere dit indhold i deres svar. llms.txt repræsenterer en ny front i det, vi kalder GEO (Generative Engine Optimization) – en tilgang der handler om at optimere for svar, ikke kun klik.