Marketingbureau Genk | Marketing Minded - Groei voor KMO's
★★★★★ 5.0 best beoordeelde marketingbureau

Wat is llms.txt en moet jij daar iets mee doen?

llms.txt klinkt alsof je per ongeluk een oud DOS-commando intikt. Toch valt die naam steeds vaker in gesprekken over AI, copyright en controle over je eigen content. En dat is niet toevallig. Want waar data het nieuwe goud is, wil iedereen weten wie aan het delven is – en vooral: met welk recht.

Moet jij er nu meteen iets mee? Misschien niet. Misschien juist wél. Het lijkt een beetje op die rookmelder in je keuken. Je denkt er niet aan – tot je tosti aanbrandt. Zo werkt het ook met llms.txt. Het voelt overbodig, tot het dat ineens niet meer is. En dan wil je dat je het geregeld hebt.

Wat doet llms.txt eigenlijk?

Stel: jij maakt content. Geen knip-en-plakwerk, maar teksten met jouw tone of voice. Zelfgeschoten foto’s, ontwerpen waarin uren werk zit. Cases waar je trots op bent, klantverhalen met nuance, sectorinzichten die nét iets verder gaan dan wat al op honderd andere sites staat. Dan wil je misschien niet dat een AI-model – ergens op een serverpark in Texas – jouw werk opzuigt als trainingsdata. Zonder dat je daar iets van merkt. Of iets over te zeggen hebt.

llms.txt is dan jouw digitale nee-sticker. Geen magisch schild, wél een signaal: “Hé, deze content is niet voor jullie.” Net als een tuinhek geen inbraak voorkomt, maar wél aangeeft dat dit privégrond is. AI-crawlers die zich netjes gedragen, zullen dat respecteren. De cowboybots? Die zijn er ook, maar dan heb je in elk geval je grens helder gedefinieerd.

Klinkt als robots.txt, toch?

Klopt. Denk aan robots.txt, waarmee je al jaren zoekmachines vertelt wat ze wel en niet mogen indexeren. llms.txt is het broertje daarvan – maar dan specifiek gericht op large language models (LLM’s) zoals ChatGPT, Claude, Gemini of Mistral.

Het verschil zit ‘m in het doel. robots.txt richt zich op zoekmachines die content crawlen voor weergave in zoekresultaten. llms.txt daarentegen probeert AI-trainers te weren: bedrijven die jouw data willen gebruiken om hun modellen slimmer te maken. Zonder jouw toestemming. Zonder vergoeding. Zonder context.

Alleen… het is (nog) geen officiële standaard. AI-bedrijven zijn niet wettelijk verplicht zich eraan te houden. Maar: er beweegt iets. Makers willen regie over hun werk. Grote mediagroepen kloppen op tafel. Overheden kijken mee. En tools zoals llms.txt schieten als paddenstoelen uit de grond. Het voelt misschien nog als een early adopter-dingetje, maar dat was robots.txt ooit ook.

Moet jij nu actie ondernemen?

Dat hangt ervan af. Heb je een simpele site zonder unieke content, of ben je vooral een doorgeefluik van informatie die overal te vinden is? Dan kun je dit voorlopig laten liggen. Al geldt ook daar: liever preventief dan reactief.

Maar werk je in een vakgebied waar informatie privacygevoelig is? Heb je klantcases, ontwerpen, content met strategische waarde? Of investeer je veel tijd in SEO, copywriting, beeldmateriaal of UX? Dan is het slim om hier wél even bij stil te staan. Zeker als jouw site nu al regelmatig gecrawld wordt door bots die je niet kent. Check je serverlogs maar eens – dan zie je namen als GPTBot, ClaudeBot of andere crawlers die zonder aankondiging binnenwandelen.

Wat staat er dan in zo’n llms.txt-bestand?

Het is letterlijk een tekstbestand. Simpel. Geen code, geen API, geen ingewikkelde plugin. Je zet het in de root van je domein, net zoals robots.txt. Daarin geef je aan welke paden, bestanden of domeinen niet gebruikt mogen worden voor AI-training. Bijvoorbeeld:

















Dat is het. Met die regels zeg je: deze hele site (of delen ervan) is off-limits voor wie AI-modellen wil trainen. En ja, dit bestand werkt complementair aan robots.txt – maar vervangt het niet. Het is een extra laagje. Een AI-specifieke grens, voor een AI-specifiek probleem.

Is het juridisch bindend? Nee. Is het slim? Absoluut.

Net als een privacybeleid of cookiebanner is llms.txt in eerste instantie een signaal. Een duidelijke ‘nee’, op een plek waar crawlers hem kunnen vinden. Voor bedrijven die zich aan ethische richtlijnen houden, is dat genoeg. En wie over die lijn gaat? Die heeft juridisch straks minder verweer als het misgaat. Want je hebt expliciet aangegeven: dit mag niet.

Waarom dit nu ineens speelt? Omdat content geen bijzaak meer is.

AI-modellen worden beter van de content die jij maakt. Jouw teksten, jouw voorbeelden, jouw perspectief. En dat roept steeds vaker de vraag op: van wie is kennis eigenlijk? Als jij investeert in kwaliteit, mag een AI-tool daar dan zomaar mee aan de haal? Tools zoals llms.txt zijn een eerste poging om daar grip op te krijgen. Niet perfect. Wel nodig.

Wil je het instellen? Doe het vandaag nog.

Je hebt letterlijk vijf minuten nodig. Maak een .txt-bestand aan, zet er een paar regels in, upload het naar je domein. Klaar. Wil je hulp bij een template, of advies over hoe je robots.txt en llms.txt slim combineert? Stuur een seintje – ik help je zonder gedoe.

Want uiteindelijk is het heel simpel: wie grenzen wil trekken in een AI-tijdperk, moet ergens beginnen. En llms.txt is precies zo’n begin. Klein, maar krachtig. Zoals elke goede gewoonte.