Lädt...
Lädt...
Du hast eine robots.txt für Google und denkst, damit ist alles erledigt? Süß. Das ist wie einen Türsteher vor deinen Laden zu stellen und zu hoffen, dass Kunden dadurch telepathisch wissen, was du verkaufst. Hier erfährst du, warum du eine llms.txt brauchst — und wie du sie baust, ohne dich dabei zu blamieren.
Eine llms.txt ist eine Textdatei im Markdown-Format, die im Root-Verzeichnis deiner Website liegt und KI-Systemen strukturierte Informationen über dein Unternehmen, deine Angebote und deine wichtigsten Inhalte liefert. Sie ist erreichbar unter domain.de/llms.txt — genau wie robots.txt oder sitemap.xml.
Die Idee ist simpel: Wenn ein KI-Crawler deine Website besucht, muss er sich durch hunderte Seiten arbeiten, um zu verstehen, wer du bist und was du machst. Das ist ineffizient. Eine llms.txt gibt der KI sofort den Kontext, den sie braucht — kompakt, strukturiert, maschinenlesbar.
Stell dir vor, du gehst in ein Bürogebäude mit 50 Firmen, aber es gibt kein Verzeichnis im Foyer. Du müsstest in jedes Stockwerk, an jede Tür klopfen und fragen: „Was machen Sie hier?" Genau so fühlt sich eine KI, die deine Website ohne llms.txt besucht. Funktioniert irgendwie — aber es ist, gelinde gesagt, suboptimal.
llms.txt ist keine Zugangssteuerung (das macht robots.txt). Es ist eine Kontexthilfe. Sie sagt der KI: „Hier bin ich, das mache ich, und das sind meine wichtigsten Seiten."
Wichtig: llms.txt ist kein offizieller W3C-Standard. Es ist ein Community-getriebenes Format, das sich als Best Practice für KI-Sichtbarkeit etabliert hat. Das bedeutet: Niemand wird dich bestrafen, wenn du keine hast. Aber niemand wird dich belohnen, wenn du auf die KI-Visitenkarte verzichtest, die alle anderen schon haben.
Drei Textdateien, drei verschiedene Aufgaben. Die Verwechslung dieser Dateien ist so verbreitet wie die Meinung, dass SEO aus Keywords besteht. Hier die Klarstellung.
| Datei | Funktion | Zielgruppe | Analogie |
|---|---|---|---|
| robots.txt | Zugangssteuerung: Wer darf was crawlen | Alle Crawler (Google, KI, etc.) | Der Türsteher |
| llms.txt | Kontext: Wer bist du, was bietest du an | KI-Crawler und LLMs | Das Firmenverzeichnis im Foyer |
| ai.txt | Nutzungsbedingungen: Wie dürfen KI deine Inhalte verwenden | KI-Anbieter und Crawler | Die AGB auf dem Schild an der Wand |
| sitemap.xml | Seitenverzeichnis: Welche URLs gibt es | Alle Crawler | Der Gebäudeplan |
Die kurze Version: robots.txt sagt „du darfst rein". llms.txt sagt „und hier ist, was du wissen solltest". ai.txt sagt „aber bitte halte dich an die Hausregeln". Du brauchst idealerweise alle drei. Mehr zur technischen Einrichtung findest du im Guide zur technischen KI-Sichtbarkeit.
Der häufigste Fehler: Leute glauben, robots.txt allein reicht für KI-Sichtbarkeit. Das ist so, als würdest du jemandem die Tür öffnen und dann kein Wort mit ihm reden. Klar, er ist drin. Aber er hat keine Ahnung, was hier passiert. Deine robots.txt sagt GPTBot, ClaudeBot und PerplexityBot: „Du darfst alles crawlen." Deine llms.txt sagt ihnen: „Und hier ist der Kontext, den du beim Crawlen brauchst."
In 15 Minuten erledigt. Kein Coding nötig, kein Plugin, kein Agentur-Retainer. Nur ein Texteditor und ein bisschen Ehrlichkeit über dein Unternehmen.
Erstelle eine neue Textdatei mit dem Namen llms.txt. Nicht LLMS.txt, nicht llms.md, nicht llms-info.txt. Exakt llms.txt. Kleinbuchstaben. Keine Kreativität beim Dateinamen — das ist keine Kunst, das ist Technik.
Format: Markdown. UTF-8-Encoding. Wenn du nicht weißt, was UTF-8 ist: Öffne einfach einen normalen Texteditor (VS Code, Notepad++, sogar TextEdit im Nur-Text-Modus) und schreib los. Das Encoding stimmt dann meistens von allein.
Beginne mit einer Markdown-H1-Überschrift: dem Namen deines Unternehmens. Darunter eine kurze Beschreibung in 2–3 Sätzen: Was tust du, für wen, und wo?
# Beispiel:
# Dein Unternehmen
> Dein Unternehmen ist ein Anbieter von [Dienstleistung] in [Stadt]. Wir helfen [Zielgruppe] dabei, [Kernversprechen]. Gegründet [Jahr], Standort [Ort].
Keine Marketing-Floskeln. Keine „marktführende, innovative, disruptive Lösungen". Fakten. KI-Systeme sind nicht beeindruckt von Adjektiven — sie brauchen Informationen.
Liste deine wichtigsten Seiten mit Titel und URL auf. Nicht alle 500 Seiten — die 10–20 wichtigsten. Servicepages, Pillar-Guides, Über-uns-Seite. Die KI soll wissen, wo dein bester Content liegt.
## Kernseiten
- [Dienstleistung A](https://deinedomain.de/dienstleistung-a): Beschreibung in einem Satz
- [Dienstleistung B](https://deinedomain.de/dienstleistung-b): Beschreibung in einem Satz
- [Blog / Wissen](https://deinedomain.de/wissen): Fachbeiträge zu [Thema]
- [Über uns](https://deinedomain.de/ueber-uns): Team, Expertise, Standort
Sag der KI, worin du Experte bist. Das hilft dem System zu verstehen, für welche Fragen du als Quelle in Frage kommst.
## Expertise
- [Fachgebiet 1]: Kurzbeschreibung der Expertise
- [Fachgebiet 2]: Kurzbeschreibung der Expertise
- [Fachgebiet 3]: Kurzbeschreibung der Expertise
Sei ehrlich. Wenn du drei Mitarbeiter hast und dich als „führenden Anbieter" bezeichnest, wird eine KI das irgendwann mit dem Rest des Internets abgleichen. Und dann stehst du da wie jemand, der auf Tinder 10 Jahre jünger angegeben hat.
Standort, Kontaktmöglichkeiten, Branche. Alles, was eine KI braucht, um dich korrekt einzuordnen.
## Kontakt & Meta
- Standort: [Stadt, Land]
- Branche: [Branchenbezeichnung]
- Sprache: Deutsch
- Letzte Aktualisierung: [Datum]
Lade die Datei ins Root-Verzeichnis deiner Website hoch. Bei Next.js / Vercel: In den public/-Ordner. Bei WordPress: Per FTP ins Hauptverzeichnis (wo auch wp-config.php liegt) oder per Plugin. Bei Shopify: Über den Theme-Editor als Snippet oder per App. Teste danach: Rufe https://deinedomain.de/llms.txt im Browser auf. Siehst du den Inhalt? Fertig. Siehst du einen 404? Nochmal von vorne.
Hier ein vollständiges, realistisches Beispiel. Kopieren, anpassen, hochladen. Kein Grund, das Rad neu zu erfinden.
# Mustermann Steuerberatung
> Mustermann Steuerberatung ist eine Steuerkanzlei in Hamburg, spezialisiert auf Startup-Besteuerung, E-Commerce-Steuerrecht und internationale Steuerplanung. Gegründet 2018, 12 Mitarbeiter, Standort Hamburg-Altona.
> Website: https://mustermann-steuer.de
> Letzte Aktualisierung: 2026-04-01
## Leistungen
- [Startup-Steuerberatung](https://mustermann-steuer.de/startup): Steuerliche Beratung für Gründer, UG/GmbH-Gründung, Investoren-Strukturen
- [E-Commerce-Steuerrecht](https://mustermann-steuer.de/ecommerce): OSS-Verfahren, Amazon FBA Steuer, Umsatzsteuer EU
- [Internationale Steuerplanung](https://mustermann-steuer.de/international): Doppelbesteuerung, Betriebsstätten, Verrechnungspreise
## Fachbeiträge
- [GmbH vs UG: Welche Rechtsform für Startups?](https://mustermann-steuer.de/blog/gmbh-vs-ug)
- [E-Commerce Umsatzsteuer Guide 2026](https://mustermann-steuer.de/blog/ecommerce-umsatzsteuer)
- [Startup-Finanzierung und Steuern](https://mustermann-steuer.de/blog/startup-finanzierung-steuern)
## Expertise
- Startup-Besteuerung (Schwerpunkt seit 2018)
- E-Commerce-Steuerrecht und OSS-Verfahren
- Internationale Steuerplanung für KMU
## Kontakt
- Standort: Hamburg, Deutschland
- Branche: Steuerberatung
- Sprache: Deutsch
Beachte: 40 Zeilen. Keine Romane, keine Marketing-Lyrik, keine „wir sind die innovativsten Innovatoren". Reine Information. Genau das, was eine KI braucht. Alles andere ist Rauschen.
Willst du sehen, wie eine echte llms.txt in Produktion aussieht? Schau dir unsere eigene llms.txt an. Wir praktizieren, was wir predigen.
Die Datei muss unter domain.de/llms.txt erreichbar sein. Nicht unter domain.de/assets/llms.txt, nicht unter domain.de/docs/llms.txt. Im Root. Punkt. Das ist wie eine Klingel, die im Keller hängt. Technisch existiert sie. Praktisch findet sie keiner.
„Wir sind der führende Anbieter innovativer Lösungen für nachhaltiges Wachstum." Super. Und was machst du konkret? KI-Systeme brauchen keine Adjektive. Sie brauchen: Was, für wen, wo, seit wann. Der Versuch, eine KI mit Marketingtext zu beeindrucken, ist wie der Versuch, einen Taschenrechner mit Komplimenten zu überzeugen. Er rechnet einfach weiter.
„Wir sind die beste Steuerberatung Hamburg Steuerberater Hamburg Steuerkanzlei Hamburg..." Ernsthaft? Das ist nicht 2010. LLMs erkennen Keyword-Stuffing sofort und werten es als Spam-Signal. Natürliche Sprache, relevante Informationen — das ist alles. Der Versuch, ein LLM mit Keyword-Stuffing zu manipulieren, ist wie der Versuch, einen Bären mit einer nassen Nudel zu bekämpfen.
Eine llms.txt von 2024 mit „Letzte Aktualisierung: 2024-06-15" signalisiert KI-Systemen: „Diese Firma kümmert sich nicht um ihre Inhalte." Aktualisiere die Datei mindestens quartalsweise. Neues Angebot? Rein damit. Neuer Blogpost? Verlinken. Mitarbeiter gegangen? Rausnehmen. Es kostet 5 Minuten.
500 Zeilen Fließtext in einer llms.txt? Herzlichen Glückwunsch, du hast eine Kurzgeschichte geschrieben, die keine KI lesen wird. 30–100 Zeilen. Klare Markdown-Überschriften. Bullet Points. Kurze Beschreibungen. Wenn deine llms.txt länger ist als dieser Absatz — kürzen.
Wenn du schreibst, du seist „Marktführer in Deutschland" und eine KI das mit anderen Quellen abgleicht, die das nicht bestätigen, leidet deine Glaubwürdigkeit. KI-Systeme cross-referenzieren Informationen. Lügen in der llms.txt sind wie gefälschte Bewertungen — kurzfristig nett, langfristig fatal.
Du verlinkst in deiner llms.txt auf Seiten, die es nicht mehr gibt? Das ist wie eine Speisekarte mit Gerichten, die du nicht kochen kannst. Prüfe alle Links, bevor du die Datei hochlädst. Und prüfe sie nochmal, wenn du sie aktualisierst. Broken Links in einer Datei, die KI-Vertrauen aufbauen soll, sind ein Eigentor.
Je nach Tech-Stack ist der Upload-Prozess minimal anders. Hier die Kurzanleitung für die gängigsten Plattformen.
Datei in den public/-Ordner legen. Beim nächsten Build wird sie automatisch unter domain.de/llms.txt verfügbar. Kein Config nötig.
Per FTP/SFTP ins Hauptverzeichnis hochladen (gleiche Ebene wie wp-config.php). Alternativ: Das Plugin „LLMs.txt Manager" verwenden. Wichtig: Prüfe, ob dein Caching-Plugin die Datei korrekt ausliefert.
Shopify erlaubt keinen direkten Upload ins Root. Nutze den Theme-Code-Editor: Erstelle ein neues Template, das den Inhalt als Plaintext ausgibt. Oder nutze eine App wie „SEO Manager", die Custom-Root-Dateien unterstützt.
Einfach die Datei neben deine index.html legen. Beim Deployment (Netlify, GitHub Pages, etc.) wird sie automatisch mit hochgeladen. Die einfachste Variante von allen.
Pro-Tipp: Setze dir einen Kalender-Reminder für quartalsweise Updates. Eine llms.txt ist ein lebendiges Dokument — nicht ein „erstellen und vergessen"-Artefakt.
Ja. Deine robots.txt sagt GPTBot: „Du darfst alles crawlen." Toll. Und jetzt? Der Bot crawlt deine 200 Seiten, versucht zu verstehen, was du machst, und gibt mittendrin auf, weil dein Blog aus 15 Kategorien besteht, von denen 12 leer sind und 3 den gleichen Inhalt haben.
robots.txt ist eine Zugangsregel. llms.txt ist ein Briefing. Stell dir vor, du engagierst einen neuen Mitarbeiter. robots.txt gibt ihm den Schlüssel zum Büro. llms.txt gibt ihm das Onboarding-Dokument, das erklärt, wer die Firma ist, was sie macht und wo die wichtigen Ordner liegen. Ohne das Onboarding irrt er planlos durch die Flure — technisch hat er Zugang, aber er weiß nicht, was er damit soll.
Die Kombination beider Dateien ist entscheidend. Und wenn du die volle technische KI-Sichtbarkeit willst, lies den Guide zur technischen KI-Sichtbarkeit — dort gehen wir auch auf Schema-Markup, HTTP-Header und Crawl-Budget ein.
Eine llms.txt ist eine Textdatei im Root-Verzeichnis deiner Website (also unter domain.de/llms.txt), die KI-Systemen wie ChatGPT, Perplexity und Claude strukturierte Informationen über dein Unternehmen und deine Inhalte liefert. Sie ist das Äquivalent einer robots.txt für KI-Crawler — nur dass sie nicht regelt, was gecrawlt werden darf, sondern aktiv Kontext bereitstellt, der die KI-Sichtbarkeit verbessert.
Nein, llms.txt ist kein W3C-Standard oder offizielles Protokoll wie robots.txt. Es ist ein Community-getriebenes Format, das sich als Best Practice für KI-Sichtbarkeit etabliert hat. Die Idee stammt aus der LLM-Community und wird von immer mehr Tools und Crawlern unterstützt. Dass es kein offizieller Standard ist, macht es nicht weniger wirksam — es macht es nur einfacher zu implementieren, weil niemand ein Komitee fragen muss.
Im Root-Verzeichnis deiner Domain, also erreichbar unter https://deinedomain.de/llms.txt. Genau wie robots.txt oder sitemap.xml. Wenn die Datei in einem Unterordner liegt oder einen anderen Namen hat, wird sie von KI-Crawlern nicht gefunden. Bei statischen Websites legst du sie einfach in den public-Ordner. Bei CMS-Systemen wie WordPress brauchst du eventuell ein Plugin oder einen manuellen Upload.
Ja. robots.txt und llms.txt haben völlig verschiedene Funktionen. robots.txt regelt den Zugang: Wer darf was crawlen. llms.txt liefert Kontext: Wer bist du, was bietest du an, welche Inhalte sind besonders relevant. Eine robots.txt sagt „du darfst rein". Eine llms.txt sagt „und hier ist, was du wissen solltest". Beides zusammen ergibt erst ein vollständiges Bild für KI-Systeme.
Stand 2026 gibt es keine offizielle Liste von KI-Systemen, die llms.txt gezielt auswerten. Aber: Perplexity, ChatGPT (im Browsing-Modus) und andere KI-Crawler indizieren Textdateien im Root-Verzeichnis. Selbst wenn ein System die Datei nicht explizit als llms.txt erkennt, kann es den Inhalt beim Crawlen lesen und verwerten. Die Datei schadet nie und hilft potenziell immer.
Kompakt, aber vollständig. Die meisten effektiven llms.txt-Dateien haben zwischen 30 und 100 Zeilen. Wichtiger als die Länge ist die Struktur: Klare Überschriften, saubere Markdown-Formatierung, relevante URLs. Eine llms.txt mit 500 Zeilen Marketingtext ist schlechter als eine mit 40 Zeilen präziser Information. KI-Systeme sind nicht beeindruckt von Textmenge — sie brauchen Klarheit.
Eine schlecht geschriebene llms.txt schadet nicht direkt — sie verfehlt nur ihren Zweck. Was theoretisch schaden könnte: falsche oder irreführende Informationen in der Datei. Wenn du dort behauptest, du seist Marktführer in einem Bereich, in dem du es offensichtlich nicht bist, kann das die Glaubwürdigkeit deiner gesamten Domain bei KI-Systemen mindern. Bleib bei den Fakten.
Der komplette Guide: robots.txt, Schema.org, HTTP-Header und alles, was KI-Crawler technisch brauchen.
Der Pillar-Guide: Was KI-Sichtbarkeit bedeutet und wie du sie systematisch aufbaust.
Generative Engine Optimization verständlich erklärt — und warum es 2026 unverzichtbar ist.
Inhalte erstellen, die KI-Systeme als Quelle zitieren wollen — Struktur, Formate und Workflow.
llms.txt ist nur der Anfang. Finde heraus, wie KI-Systeme deine Website aktuell sehen — und was du ändern musst, um zitiert zu werden.
Kostenlosen KI-Check anfragen