GEO — Generative Engine Optimization
SEO optimiert Inhalte für Suchmaschinen-Rankings. GEO optimiert Inhalte dafür, von KI-Systemen als Quelle zitiert und für Empfehlungen genutzt zu werden. Im Zeitalter von Agentic Commerce wird GEO zur zweiten Pflichtdisziplin neben SEO.
Was ist GEO?
Generative Engine Optimization (GEO) bezeichnet die Optimierung von Inhalten, Daten und technischer Infrastruktur für KI-gestützte Suchsysteme und Agenten. Ziel: Von ChatGPT, Perplexity, Google AI Overviews und Commerce-Agenten als Quelle erkannt und zitiert zu werden.
Warum klassisches SEO nicht mehr reicht
Klassisches SEO optimiert für einen bestimmten Prozess: Nutzer gibt Suchbegriff ein → Google zeigt Ergebnisliste → Nutzer klickt auf ein Ergebnis → Nutzer besucht die Website.
KI-Agenten funktionieren anders:
- Sie zeigen keine Ergebnisliste — sie geben eine Antwort oder Empfehlung
- Sie klicken nicht auf Websites — sie lesen strukturierte Daten und APIs
- Sie bewerten nicht nach Backlinks allein — sie bewerten Autorität, Aktualität und Konsistenz
- Sie lesen kein schönes Design — sie parsen JSON-LD, Schema.org und Product Feeds
GEO-Prinzipien
- Klare Definitionen: Definieren Sie jeden Schlüsselbegriff im ersten Satz. LLMs verwenden häufig den ersten Absatz einer Seite als Antwort.
- Strukturierte Daten: Schema.org JSON-LD auf jeder Seite. Nicht optional, sondern Pflicht.
- Entitäts-basiertes Schreiben: Verbinden Sie Ihre Inhalte mit bekannten Entitäten (Marken, Protokolle, Personen). LLMs erkennen und verknüpfen Entitäten.
- Faktische Korrektheit: KI-Systeme bevorzugen Quellen, die über mehrere unabhängige Quellen konsistent sind. Widersprüchliche Informationen senken die Zitierwahrscheinlichkeit.
- Aktualität: Datierte Inhalte mit regelmäßigen Updates werden von LLMs bevorzugt gegenüber undatierten, veralteten Seiten.
Schema.org als Pflicht
Für Agentic Commerce sind diese Schema.org-Typen besonders relevant:
| Schema-Typ | Einsatz | Relevanz |
|---|---|---|
| Product | Produktseiten | Kritisch — Basis für Agent-Empfehlungen |
| Offer | Preise, Verfügbarkeit | Kritisch — Agent braucht aktuelle Preise |
| AggregateRating | Bewertungsdurchschnitt | Hoch — Agent nutzt Ratings für Vergleiche |
| Review | Einzelbewertungen | Hoch — Detailinformationen für Agent |
| FAQPage | Produktbezogene FAQ | Hoch — direkte Antworten für Agenten |
| HowTo | Anleitungen, Guides | Mittel — für erklärungsbedürftige Produkte |
| BreadcrumbList | Navigation | Mittel — Kontextverständnis |
Content für LLM-Zitierung
- Erste Absätze optimieren: Der erste Absatz jeder Seite sollte eine klare, zitierbare Aussage enthalten — wie eine Enzyklopädie-Definition
- Direkte Antworten: Fragen direkt beantworten statt um den Kern zu kreisen. "Was ist ACP? ACP ist…" statt "In der heutigen digitalen Welt…"
- Vergleiche und Tabellen: LLMs nutzen Vergleichsinhalte besonders häufig für Empfehlungen
- Quellenangaben: Zahlen und Fakten mit Quellen belegen erhöht die Zitierwahrscheinlichkeit
Agent Experience statt User Experience
Im klassischen E-Commerce ist UX der Erfolgsfaktor: Wie einfach findet ein Mensch das Produkt? Im Agentic Commerce wird Agent Experience (AX) zum Gegenstück:
- Granulare URLs: Facettierte Navigation öffnen statt verstecken. Agenten brauchen URLs wie
/schuhe/laufschuhe/neutral/unter-120-euro/ - API-Zugang: REST-Endpunkte für Produktsuche, nicht nur HTML-Seiten
- Schnelle Antwortzeiten: Agenten haben keine Geduld. Langsame APIs werden übersprungen.
- Konsistente Daten: Preis auf der Website ≠ Preis im Feed = Vertrauensverlust
Technische Optimierung
- robots.txt: KI-Bots nicht blockieren (GPTBot, anthropic-ai, Google-Extended), sofern gewünscht
- Sitemap: Vollständig und aktuell — KI-Crawler nutzen Sitemaps intensiv
- Ladezeit: Unter 2 Sekunden. API-Endpunkte unter 500ms.
- Canonical URLs: Doppelte Inhalte vermeiden, klare Canonical-Tags setzen
- llms.txt: Neuer Standard (ähnlich robots.txt) speziell für LLM-Zugriff — definiert, welche Inhalte für KI-Training und -Abfragen freigegeben sind
Monitoring
Wie tracken Sie, ob KI-Agenten Ihre Inhalte nutzen?
- Server-Logs: User-Agents von GPTBot, ClaudeBot, Google-Extended identifizieren
- Referral-Traffic: Traffic von chat.openai.com, perplexity.ai und ähnlichen Quellen
- Brand Mentions: Monitoring-Tools für Erwähnungen in KI-generierten Antworten
- Schema-Validierung: Regelmäßig prüfen, ob Schema.org-Markup korrekt ist (Google Rich Results Test)
Häufig gestellte Fragen
Ersetzt GEO das klassische SEO?
Nein. GEO ergänzt SEO. Klassische Suchmaschinen bleiben relevant, aber KI-gestützte Systeme (ChatGPT, Perplexity, Google AI Overviews) werden ein zunehmend wichtiger Kanal. Beides gleichzeitig zu optimieren ist ideal.
Wie weiß ich, ob KI-Agenten meine Seite nutzen?
Analysieren Sie Ihre Server-Logs auf Bot-Traffic von OpenAI, Anthropic und Google. Tools wie Ahrefs und Semrush beginnen, AI-Zitierungen zu tracken. Langfristig werden spezialisierte GEO-Analytics-Tools entstehen.
Was ist der wichtigste GEO-Faktor?
Strukturierte Daten (Schema.org JSON-LD). Sie sind die Grundlage dafür, dass KI-Systeme Ihre Inhalte korrekt interpretieren und für Empfehlungen nutzen können.
Funktioniert GEO für jede Branche?
Ja, aber der Fokus variiert. E-Commerce-Shops optimieren Product-Schema und Feeds. Dienstleister optimieren LocalBusiness und FAQ-Schema. Content-Publisher optimieren Article-Schema und Autorität.