SEO im KI-Zeitalter am Beispiel eines Urlaubs

kopenhagen nyhavn

Die digitale Landschaft hat sich seit dem Release von OpenAIs ChatGPT im Winter 2022 rasanter verändert als in den zwei Jahrzehnten zuvor. Wer heute „Marketing“ sagt, meint oft „KI“. Doch während die Schlagzeilen und LinkedIn-Gurus von der „Ablösung Googles“ durch Chatbots dominieren, zeigt die Realität ein differenzierteres Bild. Als SEO Manager beobachte ich täglich, dass Künstliche Intelligenz die Suche nicht ersetzt, sondern eher präzisiert und damit den Wert von echtem, organischem Content sogar steigert.

Der Wandel der Suchgewohnheiten – Prompts vs. Keywords

Wir befinden uns mitten im Paradigmenwechsel von der Keyword-basierten Suche hin zur kontextuellen Suche (dialogorientiertes Prompting). Schauen wir uns die Daten und Fakten einmal genauer an, dann sehen wir klare Bewegungen in Richtung kontextueller Suche. Fast 39 % der Nutzer greifen bei schwierigen, mehrstufigen Recherchen mittlerweile auf KI-Chatbots zurück. Dabei ist die durchschnittliche Länge eines Prompts in den LLMs bei ca. 23 Wörtern. Im Vergleich dazu dominiert in der klassischen Google Suche noch das über zwei Jahrzehnte antrainierte Keyword-basierte Suchen mit wenigen Suchterms.

 

Ich selbst kenne das aus meinem Alltag vor allem bei Fragen, die explizit auf meine Situation zugeschnitten beantwortet werden sollen. So wird die Urlaubsplanung individuell angegangen und man gibt Gemini einen Case als Prompt anstatt sich durch Seitenweise Blogs und Reiseratgeber oder Google Maps zu klicken. Auf der Basis eines kurzen Prompts bekomme ich so ohne großen Aufwand bereits eine kontextuelle und individuelle Zusammenfassung auf Basis von Google My Business Profilen und verschiedenen Blogs.

 

„Ein Wochenende in Kopenhagen; Mitte März mit einer Kleingruppe von 6 Personen und einem Kind unter drei Jahren. Unterbringung in einem Airbnb im Viertel Villakvartererne. Zwei vegane Personen, es sollen familienfreundliche Aktivitäten vorgeschlagen werden.“

 

Was ausgespuckt wird, ist individuell auf die eigene Situation zugeschnitten und lässt sich nach einer Prüfung der Ergebnisse hervorragend für die weitere Planung nutzen:

Diese Informationen zieht man in dieser Form nicht aus der klassischen Google-Suche und schon gar nicht in dieser Geschwindigkeit. Ganz ohne Werbung, aufgeblähte Artikel in denen man nach der Essenz wühlen muss und bei Bedarf kann ich kontextuell in die tiefere Planung gehen. Das ist nicht nur zeitsparend, nein es ist auch bequem. Die klassische Suche ist also am Ende? Lass uns das einmal genauer anschauen… 

Die Nutzungsstatistiken von LLMs verglichen mit der Google Suche

Obwohl ChatGPT die Art und Weise, wie wir Informationen konsumieren, revolutioniert hat, bleibt die Dominanz von Google im Bereich der klassischen Informationssuche vorerst ungebrochen. Im Jahr 2025 verarbeitete Google täglich beeindruckende 8,5 Milliarden Suchanfragen (https://alloutseo.com/google-search-statistics/), was sich auf ein jährliches Volumen von etwa 5 Billionen summiert. Im direkten Vergleich dazu bleibt ChatGPT trotz seiner historischen Wachstumsraten beim reinen Suchvolumen noch eine Nische. Mit schätzungsweise 37,5 Millionen suchbezogenen Anfragen pro Tag steht die KI-Plattform in einem Verhältnis von 1 zu 373 gegenüber der Google Suche. 

 

Das zeigt uns also, dass Nutzer ChatGPT zwar für komplexe Aufgaben und Dialoge nutzen, bei der schnellen Suche nach Fakten oder Dienstleistungen jedoch weiterhin reflexartig auf Google zurückgreifen. Auch, weil die Google-Suche tief in unsere Systeme veranktert ist. Nicht umsonst zahlt Google einem Apple eine zweistellige Milliardensumme um in Safari als Standard-Suchmaschine genutzt zu werden (https://www.heise.de/news/Fuer-Suche-in-Safari-Google-zahlte-Apple-2022-wohl-20-Milliarden-US-Dollar-9705490.html). 

 

Als Unternehmen ist es also weiterhin wichtig mit den eigenen Produkten, Dienstleistungen und Visionen in der klassischen Suche präsent zu sein. Und nicht nur das, nein auch die Google Suche und die SERPs werden von LLMs im Hintergrund bei Suchaufträgen durchforstet. Bei diesem Vorgang wird der Prompt in einzelne Suchanfragen zersetzt und von den Tools im im Hintergrund ausgeführt, die sogenannte Query-Fan-Out-Methode (https://www.sistrix.de/frag-sistrix/ai-grundlagen/query-fan%E2%80%91out/). Hier wird dann ein Prompt semantisch auseinandergenommen und in zur Entität passenden Unteranfragen zerlegt und im jeweiligen Index (bei Gemini ist das die Google Suche und bei ChatGPT die Bing Suche) ausgegeben. Damit führt das LLM am Ende also genauso klassische Suchen aus und arbeitet sich durch die Ergenisseiten, wie wir es bei einer manuellen Recherche machen würden.

 

Verstehen wir den Query-Fan-Out, sowie die der Suchintention zu Grunde liegenden Entitäten, dann hilft uns das bei der Erstellung von Inhalten, die sowohl organisch als auch von LLMs gefunden und zitiert werden können. Ein Reverse-Engineering von komplexen Anfragen an ein LLM kann hier also die Basis für zitierfähige Inhalte werden. Das Beispiel mit dem Urlaub können wir hier wieder heranziehen und es einmal auf den Fan Out prüfen. Zerlegen wir das also einmal in seine Entitäten:

  • Kopenhagen
  • März
  • Gruppe mit Kleinkind
  • Vegan
  • Villakvartererne
  • Familienfreundlich

 

Mit diesen Informationen geht ein LLM jetzt also los und baut sich Suchanfragen auf:

  • „Kopenhagen Aktivitäten März“
  • „Kopenhagen Vegane Restaurants“
  • „Villakaverterne Empfehlungen“
  • „Kopenhagen mit Kleinkind“

Auf dieser Basis können wir uns jetzt also hinsetzen und für genau diese Suchanfragen aus Primärquellen herausgearbeitete Tipps geben. Zusammenschreiben, in Videos verarbeiten und schauen damit zu einer für diesen Fall relevanten Autorität werden. Und genau nach diesem Beispiel können wir alle Themenbereiche aufsplitten und in wertvollen und mehrwertstiftenden, einzigartigen Inhalt verarbeiten.

Back to top:
Moritz Langer
Datenschutz-Übersicht

Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.