EN
Startseite Definition ACP UCP AP2 MCP Alle Protokolle Für Händler Glossar Impressum Datenschutz
Inhaltsverzeichnis

GEO — Generative Engine Optimization

SEO optimiert Inhalte für Suchmaschinen-Rankings. GEO optimiert Inhalte dafür, von KI-Systemen als Quelle zitiert und für Empfehlungen genutzt zu werden. Im Zeitalter von Agentic Commerce wird GEO zur zweiten Pflichtdisziplin neben SEO.

Was ist GEO?

Generative Engine Optimization (GEO) bezeichnet die Optimierung von Inhalten, Daten und technischer Infrastruktur für KI-gestützte Suchsysteme und Agenten. Ziel: Von ChatGPT, Perplexity, Google AI Overviews und Commerce-Agenten als Quelle erkannt und zitiert zu werden.

Warum klassisches SEO nicht mehr reicht

Klassisches SEO optimiert für einen bestimmten Prozess: Nutzer gibt Suchbegriff ein → Google zeigt Ergebnisliste → Nutzer klickt auf ein Ergebnis → Nutzer besucht die Website.

KI-Agenten funktionieren anders:

  • Sie zeigen keine Ergebnisliste — sie geben eine Antwort oder Empfehlung
  • Sie klicken nicht auf Websites — sie lesen strukturierte Daten und APIs
  • Sie bewerten nicht nach Backlinks allein — sie bewerten Autorität, Aktualität und Konsistenz
  • Sie lesen kein schönes Design — sie parsen JSON-LD, Schema.org und Product Feeds

GEO-Prinzipien

  1. Klare Definitionen: Definieren Sie jeden Schlüsselbegriff im ersten Satz. LLMs verwenden häufig den ersten Absatz einer Seite als Antwort.
  2. Strukturierte Daten: Schema.org JSON-LD auf jeder Seite. Nicht optional, sondern Pflicht.
  3. Entitäts-basiertes Schreiben: Verbinden Sie Ihre Inhalte mit bekannten Entitäten (Marken, Protokolle, Personen). LLMs erkennen und verknüpfen Entitäten.
  4. Faktische Korrektheit: KI-Systeme bevorzugen Quellen, die über mehrere unabhängige Quellen konsistent sind. Widersprüchliche Informationen senken die Zitierwahrscheinlichkeit.
  5. Aktualität: Datierte Inhalte mit regelmäßigen Updates werden von LLMs bevorzugt gegenüber undatierten, veralteten Seiten.

Schema.org als Pflicht

Für Agentic Commerce sind diese Schema.org-Typen besonders relevant:

Schema-TypEinsatzRelevanz
ProductProduktseitenKritisch — Basis für Agent-Empfehlungen
OfferPreise, VerfügbarkeitKritisch — Agent braucht aktuelle Preise
AggregateRatingBewertungsdurchschnittHoch — Agent nutzt Ratings für Vergleiche
ReviewEinzelbewertungenHoch — Detailinformationen für Agent
FAQPageProduktbezogene FAQHoch — direkte Antworten für Agenten
HowToAnleitungen, GuidesMittel — für erklärungsbedürftige Produkte
BreadcrumbListNavigationMittel — Kontextverständnis

Content für LLM-Zitierung

  • Erste Absätze optimieren: Der erste Absatz jeder Seite sollte eine klare, zitierbare Aussage enthalten — wie eine Enzyklopädie-Definition
  • Direkte Antworten: Fragen direkt beantworten statt um den Kern zu kreisen. "Was ist ACP? ACP ist…" statt "In der heutigen digitalen Welt…"
  • Vergleiche und Tabellen: LLMs nutzen Vergleichsinhalte besonders häufig für Empfehlungen
  • Quellenangaben: Zahlen und Fakten mit Quellen belegen erhöht die Zitierwahrscheinlichkeit

Agent Experience statt User Experience

Im klassischen E-Commerce ist UX der Erfolgsfaktor: Wie einfach findet ein Mensch das Produkt? Im Agentic Commerce wird Agent Experience (AX) zum Gegenstück:

  • Granulare URLs: Facettierte Navigation öffnen statt verstecken. Agenten brauchen URLs wie /schuhe/laufschuhe/neutral/unter-120-euro/
  • API-Zugang: REST-Endpunkte für Produktsuche, nicht nur HTML-Seiten
  • Schnelle Antwortzeiten: Agenten haben keine Geduld. Langsame APIs werden übersprungen.
  • Konsistente Daten: Preis auf der Website ≠ Preis im Feed = Vertrauensverlust

Technische Optimierung

  • robots.txt: KI-Bots nicht blockieren (GPTBot, anthropic-ai, Google-Extended), sofern gewünscht
  • Sitemap: Vollständig und aktuell — KI-Crawler nutzen Sitemaps intensiv
  • Ladezeit: Unter 2 Sekunden. API-Endpunkte unter 500ms.
  • Canonical URLs: Doppelte Inhalte vermeiden, klare Canonical-Tags setzen
  • llms.txt: Neuer Standard (ähnlich robots.txt) speziell für LLM-Zugriff — definiert, welche Inhalte für KI-Training und -Abfragen freigegeben sind

Monitoring

Wie tracken Sie, ob KI-Agenten Ihre Inhalte nutzen?

  • Server-Logs: User-Agents von GPTBot, ClaudeBot, Google-Extended identifizieren
  • Referral-Traffic: Traffic von chat.openai.com, perplexity.ai und ähnlichen Quellen
  • Brand Mentions: Monitoring-Tools für Erwähnungen in KI-generierten Antworten
  • Schema-Validierung: Regelmäßig prüfen, ob Schema.org-Markup korrekt ist (Google Rich Results Test)

Häufig gestellte Fragen

Ersetzt GEO das klassische SEO?

Nein. GEO ergänzt SEO. Klassische Suchmaschinen bleiben relevant, aber KI-gestützte Systeme (ChatGPT, Perplexity, Google AI Overviews) werden ein zunehmend wichtiger Kanal. Beides gleichzeitig zu optimieren ist ideal.

Wie weiß ich, ob KI-Agenten meine Seite nutzen?

Analysieren Sie Ihre Server-Logs auf Bot-Traffic von OpenAI, Anthropic und Google. Tools wie Ahrefs und Semrush beginnen, AI-Zitierungen zu tracken. Langfristig werden spezialisierte GEO-Analytics-Tools entstehen.

Was ist der wichtigste GEO-Faktor?

Strukturierte Daten (Schema.org JSON-LD). Sie sind die Grundlage dafür, dass KI-Systeme Ihre Inhalte korrekt interpretieren und für Empfehlungen nutzen können.

Funktioniert GEO für jede Branche?

Ja, aber der Fokus variiert. E-Commerce-Shops optimieren Product-Schema und Feeds. Dienstleister optimieren LocalBusiness und FAQ-Schema. Content-Publisher optimieren Article-Schema und Autorität.

A powered by AGENTICAL