Von LLMO bis GEO – Sichtbarkeit in der K.I. Suche für Unternehmen

Tools wie Chat GPT oder Google Gemini unterstützen bereits heute in vielen Unternehmen Prozesse und die Erstellung von Content, aber auch spezialisierte Suchplattformen wie Perplexity werden immer beliebter. Diese Entwicklung wird auch dadurch unterstützt, dass immer mehr Websites Traffic aus direkten Verlinkungen innerhalb von K.I. Suchmaschinen erhalten.

Laut einer Clickstream-Auswertung von SEMRUSH betrug das Wachstum der verlinkten Websites im letzten Quartal von 2024 ganze 100%.

Anstatt der Basis-Funktion, welche die ChatGPT Trainingsdaten nutzt, wurde die neue Option mit aktiver Websuche bereits in 46% aller Anfragen genutzt.

Gleichzeitig werden die Resultate von K.I. „Suchmaschinen“ für viele private Nutzer – und damit auch potenzielle Kunden – immer häufiger eine erste Anlaufstelle für Antworten und Produktsuchen. Wenn Nutzer jetzt nach spezifischen Antworten zu Produkten oder Dienstleistungen suchen, ist es natürlich hilfreich, wenn hier auch das eigene Unternehmen in den Antworten auftaucht.

Kann das Ergebnis der K.I. Antworten bereits beeinflusst werden?

Die kurze Antwortet lautet: aktuell nur begrenzt.

Die Optimierung für solche Plattformen hat selbst innerhalb der SEO Branche noch nicht einmal einen eindeutigen Begriff, der gängig dafür verwendet wird. Am häufigsten verwendet werden zurzeit die Begriffe „large language model optimization“ und „generative engine optimization“ bzw.  LLMO und GEO.
Grundsätzlich geht es in beiden Ansätzen (im Kontext der Optimierung für Unternehmen) aber darum, zu beschreiben wie K.I. Applikationen die eigenen Produkte/Marken/Websites in ihren Ergebnissen darstellen und wie man dies, ähnlich wie bei SEO, optimieren kann.

Grundlegendes Verhalten von Suchanfragen in Large Language Model Suchen

  1. Verständnis von Large Language Models (LLMs):
    • LLMs sind neuronale Netzwerke mit Milliarden von Parametern, die mit umfangreichen Textdaten trainiert wurden. Sie nutzen Transformer-Architekturen, die es ermöglichen, den Kontext von Wörtern in einem Text zu erfassen und somit natürliche Sprache zu verstehen und zu generieren.  
    • Selbstaufmerksamkeit: Ein zentrales Merkmal von Transformern ist der Selbstaufmerksamkeitsmechanismus. Dies ermöglicht es dem Modell, Beziehungen zwischen Wörtern unabhängig von ihrer Position im Text zu erkennen.
  2. Optimierung für generative KI-Ergebnisse:
    • Datenpräsenz: LLMs basieren auf der statistischen Analysen von Textdaten. Daher erhöht eine häufige und konsistente Erwähnung einer Marke oder eines Produkts in relevanten Kontexten die Wahrscheinlichkeit, in generativen KI-Ergebnissen berücksichtigt zu werden.
    • Semantische Nähe: Durch die Platzierung von Marken- und Produktnamen in semantisch verwandten Kontexten ("Semantisch verwandt" bedeutet, dass die Begriffe oder Wörter in einem Kontext verwendet werden, der eine enge thematische oder bedeutungsmäßige Verbindung zeigt) kann die Assoziation dieser Begriffe mit bestimmten Themen oder Attributen gestärkt werden.
  3. Herausforderungen und Abwägungen:
    • Transparenz der Trainingsdaten: Die genauen Trainingsdaten kommerzieller LLMs sind oft nicht öffentlich bekannt, was die gezielte Beeinflussung erschwert.
    • Neutralität der Modelle: Viele LLMs werden so abgestimmt, dass sie neutrale und unvoreingenommene Antworten liefern (sollen), was die Einflussnahme weiter einschränkt. Es gibt aber zu einem gewissen Grad auch bereits „Partnerschaften“, die zu bevorzugten Erwähnungen führen können.
    • Aufwand und Machbarkeit: Um einen signifikanten Einfluss auf die Ausgaben generativer KI zu nehmen, ist der Aufwand oft so groß, dass es die Ressourcen vieler Unternehmen übersteigt.

Wir beraten Sie gerne

Die Kernfunktion­alität von LLMs in der Suche: Natürliche Sprachverarbeitung und individuelle Antwortgenerierung

Die Kernfunktionalität von LLMs in der Suche besteht darin, Anfragen zu verarbeiten und natürliche Sprachzusammenfassungen zu erstellen. Anstatt einfach Informationen aus bestehenden Dokumenten zu extrahieren, können diese Modelle umfassende Antworten generieren, die trotzdem genau und relevant bleiben.

Dies wird durch ein einheitliches Framework erreicht, das alle Aufgaben der Suche als Textgenerierungsprobleme behandelt.Was diesen Ansatz besonders nützlich macht, ist die Fähigkeit, Antworten durch natürliche Sprachbefehle zu individualisieren. Die Systeme generieren zunächst eine anfängliche Menge an Suchergebnissen, die das LLM weiter verfeinert und verbessert.

Wenn zusätzliche Informationen benötigt werden, kann das LLM ergänzende Anfragen generieren, um umfassendere Daten zu sammeln, diese aus eigenen Websuchen generieren oder durch Rückfrage an den Nutzer verfeinern.

Einsatz im Multimedia Bereich – „multimodal“ A.I. Nutzung

Der nächste große Schritt nach der generativen Vervollständigung natürlicher Sprache war die Integration von Multimedia-Inhalten (Text, Bild, Sprache, Video, Sensor- und Standortdaten). Generative KI geht dabei über Text hinaus und erfasst auch Formate wie Audio und visuelle Inhalte. Diese Formate werden jedoch üblicherweise während des Encoding-Prozesses in Text-Tokens umgewandelt. In der Verarbeitung natürlicher Sprache durch LLMs bezeichnet ein "Token" die kleinste bedeutungstragende Einheit eines Textes, die entweder ein Wort, ein Teil eines Wortes oder sogar ein Zeichen sein kann. Tokens sind die Bausteine, mit denen das Modell arbeitet, um Text zu analysieren, zu verstehen und zu generieren. 

Nach der Weiterverarbeitung können LLMs dann beispielsweise aus einem Handy Screenshot direkt passende Produkte zum Kauf vorschlagen. Die Möglichkeit mehr als nur Text in Anfragen als Referenz zu liefern, erweitert die Vorteile derartiger Suchen für Nutzer nochmal deutlich: 

  1. Präzisere und relevantere Ergebnisse
    • Kombination mehrerer Eingaben führt zu einer besseren Interpretation der Suchintention.
    • Beispiel: Ein Nutzer sucht „beste Laufschuhe“ und lädt ein Bild seiner abgenutzten Schuhe hoch – die KI empfiehlt passende Alternativen.
  2. Flexiblere und natürlichere Interaktion
    • Suche per Text, Sprache oder Bild erhöht die Nutzerfreundlichkeit.
    • Menschen mit Einschränkungen profitieren von barrierefreien Eingabemethoden.
  3. Kontext- und personalisierte Ergebnisse
    • Standort und bisherige Vorlieben fließen in die Suchergebnisse ein.
    • Beispiel: Bei der Suche nach Restaurants werden persönliche Vorlieben anhand von Menü- oder Essensfotos und potenziell auch bisherigen Suchen oder K.I. Anfragen berücksichtigt.
  4. Effektivere visuelle Suche
    • Schwer beschreibbare Objekte lassen sich durch Bilderkennung schnell identifizieren.
    • Beispiel: Ein Nutzer lädt ein Bild eines unbekannten Werkzeugs hoch und erhält sofort eine Erklärung und/oder passende Verlinkung zur Produktseite
  5. Schnellere und effizientere Informationsbeschaffung
    • Multimodale Suchen sparen Zeit, da Nutzer weniger tippen oder umformulieren müssen.
    • Beispiel: Ein Möbelstück wird durch ein Bild gesucht, statt eine lange Beschreibung einzugeben.

Strategie und Ansätze für die LLMO / GEO Optimierung

Bereits bei den grundlegenden Zielsetzungen einer solchen Optimierung wird differenziert zwischen:

  1. dem Ziel eigene Produkte/Dienstleistungen/Marken in den Ergebnissen zu sehen  
  2. mehr dem klassischen Content Marketing entsprechend eigenen Content als Referenz für Fachwissen aufzubauen.

Beide Ziele sind erstmal sinnvoll, können aber unterschiedliche Lösungsansätze erfordern. Um in Quellenangaben von Ergebnissen aufzutauchen, ist es besonders wichtig klar erkennbare Zitationen/Verlinkungen aus möglichst vielen Quellen zu haben. Für direkte Produkt-Erwähnungen ist es wichtiger, im direkten Kontext von Produktspezifikationen beispielsweise in Bewertungen auf Portalen wie Amazon oder reddit aufzutauchen. In beiden Varianten ist die Grundlage, in bereits häufig von der jeweiligen Plattform genutzten Quellen, die eigene Präsenz auszubauen.  

Muss man für jedes GEO-Modell separat optimieren?

Aktuell variieren die Ergebnisse der unterschiedlichen Plattformen zu identischen Anfragen noch sehr stark. Das impliziert, dass die diversen Ergebnisse von KI-Anwendungen eigene Prozesse und Kriterien haben um Empfehlungen zu generieren. Es wird ebenfalls impliziert, dass für diese Empfehlung von benannten Entitäten und die Auswahl von Quellen noch deutlich unterschiedliche Priorisierungen für die Auswertung vorliegen (oder alternativ einfach nur unterschiedliche Trainingsdaten vorlagen).

In Zukunft wird es wahrscheinlich notwendig sein, mit mehreren großen Sprachmodellen oder KI-Assistenten parallel zu arbeiten und deren einzigartige Funktionalitäten zu verstehen. Für SEO Experten und Unternehmen, die an Googles Dominanz gewöhnt sind, wird dies einiges an Umgewöhnung bedeuten.  

In den kommenden Monaten/Jahren wird es entscheidend sein, zu überwachen, welche Anwendungen in spezifischen Märkten und Branchen Anklang finden, und zu verstehen, wie jedes Modell seine Quellen auswählt.

Praxis Beispiel – wie sehen solche Ergebnisunterschiede aktuell aus?  

Ein Hobbysportler braucht neue Turnschuhe. Ein nicht optimierter Starter-Prompt (während Prompts mit bis zu knapp 3000 Wörtern vorkommen hat ein Chat GPT Prompt im Schnitt eine Länge von 23 Wörtern) in generativen K.I. Modellen dafür könnte lauten:

„Ich brauche neue Turnschuhe. Ich bin 1.70 groß, 100 Kilo, 35 Jahre und laufe 5 mal die Woche. Was sind die besten Turnschuhe für mich?“

Hier werden mindestens 5 kontextuelle Informationen bereitgestellt, die von LLMs genutzt werden, um Ergebnisse zu  spezifizieren. Dadurch wird es wahrscheinlicher, dass Produkte, die bereits im Kontext dieser Merkmale assoziiert werden, auch in der Antwort und mit passender Verlinkung vorgeschlagen werden.  

Mit dieser Anfrage in Gemini/Perplexity/Chat GPT erkennen beispielsweise alle 3 Modelle direkt, dass Turnschuhe für übergewichtige Läufer hier besondere Relevanz haben und legen in ihren Antworttexten besondere Relevanz auf Stoßdämpfung und Schutz der Gelenke. 

Gemini:

Chat GPT:

Perplexity:

Während alle Modelle zu unterschiedlichen Antworten gelangen, wird beispielsweise der Brooks Glycerin in jeder Plattform dominant gelistet.

Der Schuh taucht auf mehreren Sport- und Trainingswebsites und in Artikeln wie „Die 17 besten Laufschuhe für übergewichtige Läufer” auf.

Alle drei Systeme zeigen in mehrfachen Tests leichte Varianz in ihren Antworten, aber der Brooks Glycerin und Varianten der Asics Gel Schuhe waren in jeder Antwort dabei. Auf Rückfrage an die Plattformen zu den jeweiligen Quellen werden in allen Varianten nicht kommerzielle Websites mit Bewertungen und Erfahrungsberichten angegeben.

Was können wir daraus lernen?

Genau wie in Google brauchen wir möglichst viel Kontext und Fachwissen, um die Zuordnung zu Anfragen zu erleichtern. Idealerweise mit möglichst viele Erwähnungen in externen Seiten um die Relevanz von Produkten/Dienstleistungen zu erhöhen. 

Damit endlich zurück zur eigentlichen Frage. Können wir für LLMO/GEO optimieren?

 

1.) SEO-Grundlagen erfüllen

Die jeweiligen Produkte/Dienstleistungen müssen überhaupt erstmal gefunden und indexiert werden:

  • technische Grundlagen mit Indexierbarkeit / Sitemap müssen erfüllt sein
  • müssen in normalen Google Suchen relativ präsent sein für ihre Themen
  • Contentmarketing mit ausführlichen Inhalten die Mehrwert/Fachexpertise demonstrieren.

2.) Verwendung der korrekten Suchbegriffe

In Bezug auf Suchbegriffe reagieren Plattformen wie Chat GPT besser auf umgangssprachliche Formulierungen beziehungsweise natürliche Sprache. Um hier besser abzuschneiden, sollten deshalb idealerweise auch solche Formulierungen in den eigenen Produkttexten vorkommen, um den tatsächlichen Nutzeranfragen so weit wie möglich zu entsprechen. Die klassischen „Tipps für… 5 Möglichkeiten um…“- „Die besten…“- Formulierungen können dadurch ebenfalls wieder relevanter werden.

Empfehlenswert für solche Suchanfragen wäre es, mehr Fokus auf long tail Keywords zu setzen. Da diese Suche dann spezifischer den jeweiligen Produkten zugeordnet werden kann und relevanter für K.I. basierte Suchergebnisse wird, um den „user intent“, also die eigentliche Zielsetzung des Nutzers abzubilden.

3.) Mitbewerber Analyse

Auch keine Überraschung – wenn spezifische Mitbewerber oder bestimmte Produkte in Chat GPT / Perplexity / Gemini Ergebnissen häufig auftauchen, sollte man prüfen, welche Formulierungen von Mitbewerbern verwendet werden. Außerdem sollte untersucht werden, auf welchen externen Seiten die Produkte Erwähnung finden, um nützliche Begriffe / Backlinkoptionen / Marken Erwähnungen potenziell ebenfalls selbst nutzen zu können.  


4.) Markenreputation

Es gibt noch keine verlässlichen Daten oder „exakte“ Informationen der Plattform-Betreiber, wie die Sprachmodelle trainiert werden/wurden. Da Social Media und Community Plattformen wie reddit einer der größten Einflussfaktoren für Produktbewertungen und Markendarstellung sind, ist stark davon auszugehen, dass diese für das Training von Sprachmodellen genutzt wurden (und werden). Das bedeutet, dass es äußerst sinnvoll ist, die eigene Social Media- und Community Plattform-Präsenz mit mehr Produktdetails und Branchen Themen auszubauen. 

Sichtbarkeit in generativer K.I.

Es gibt bisher kaum wissenschaftlichen Studien dazu, wie „genau“ die Bewertungs- und Empfehlungskriterien im Bereich der LLMO funktionieren. Dazu kommt, dass es fast keine „offizielle“ Dokumentation der Plattformen (außerhalb von Kommentaren einzelner Entwickler) darüber gibt, wie und ob man tatsächlich für die K.I. Suchergebnisse optimieren kann. Da K.I. Suchmodelle technisch aktuell noch in ihren Kinderschuhen stecken und sich von Monat zu Monat stark verändern, wird es hier besonders wichtig sein, permanent am Zahn der Zeit zu bleiben. Nur wer auf dem Laufenden bleibt, hat eine Chancen, schnell auf diese Veränderungen zu reagieren.  

Die im vorherigen Abschnitt gezeigte Verteilung der Nutzerintention bezieht sich nur auf die Verteilung innerhalb der „Klassischen“ Suchmuster. Auf die Gesamtmenge der Suchen verteilt waren rund 70% der Anfragen nicht direkt den üblichen Kategorien zuzuordnen.

Das wiederum impliziert, dass hier viele komplett neue „intent“ Strukturen entstehen, die viel stärker als in bisherigen Google Suchen in Richtung Problemlösungen, Brainstorming, Fortbildungsthemen oder kreative Ansätze gehen. Für Marketing generell und „Content Creator“-artige Berufe kann es dadurch besonders wichtig werden, sich an die Verhaltensmuster einer neuen Zielgruppe anzupassen. Das heißt, der Fokus sollte auf Content liegen, der genau auf solche Lern-, Problemlösungs- und Kreativ-Inhalte abzielt.  

Alle bisher genannten Punkte sind aber mit sehr hoher Wahrscheinlichkeit relevante Bewertungskriterien, und selbst ohne K.I. Plattformen wichtige Ansatzpunkte um die Sichtbarkeit und Onlinepräsenz der eigenen Marke und Produkte zu steigern. Der Einsatz derartiger Strategien wird sich dadurch kurz und langfristig auszahlen, um in der GEO, LLMO und SEO-Landschaft die eigene Relevanz weiter auszubauen gegenüber Mitbewerbern. 

to the top