Was ist der KI-Sichtbarkeits-Score? Der vollständige Leitfaden zu Share of Model

Zwei Jahrzehnte lang waren Marketingverantwortliche von einer Metrik namens Share of Voice (SOV) besessen — welchen Prozentsatz der Konversation Ihre Marke in einer Kategorie besaß. Sie verfolgten Erwähnungen, Impressionen und Rankings, um Ihre Marktpräsenz zu verstehen.

Diese Metrik wird obsolet.

In der KI-Ära gibt es eine neue Metrik, die mehr zählt: Share of Model (SoM), oder was wir Ihren KI-Sichtbarkeits-Score nennen. Er beantwortet eine trügerisch einfache Frage: Wenn Nutzer KI zu Ihrer Kategorie befragen, wie oft erwähnt die KI Sie? Für Unternehmen treibt dieser Wandel fundamentale Veränderungen im Management der Unternehmensreputation voran.

Dies ist keine theoretische Sorge. Bis 2027 prognostizieren Analysten, dass 30-50% der Produktrecherche über KI-Assistenten stattfinden wird. Wenn Ihre Marke einen Share of Model von 5% hat, während Ihr Wettbewerber bei 40% liegt, verlieren Sie die Zukunft der Entdeckung.

Lassen Sie uns diese Metrik verstehen — und wichtiger noch, lernen, wie Sie sie verbessern.

KI-Sichtbarkeits-Score Dashboard-Anzeige mit Metriken wie Stimmung und Erwähnungen

Inhaltsverzeichnis

Von Share of Voice zu Share of Model

Die alte Welt: Share of Voice

Im traditionellen Marketing maß Share of Voice Ihre Präsenz relativ zu Wettbewerbern:

Ihr Share of Voice = Ihre Erwähnungen / Gesamte Kategorie-Erwähnungen

Sie verfolgten dies über Kanäle hinweg — Suchranking, soziale Erwähnungen, Presseberichterstattung, Anzeigenimpressionen. Höherer SOV korrelierte generell mit höherem Marktanteil.

Die neue Welt: Share of Model

Share of Model wendet dasselbe Konzept auf KI-Empfehlungen an:

Ihr Share of Model = Häufigkeit Ihrer Erwähnung durch KI / Gesamte relevante KI-Antworten

Wenn jemand ChatGPT fragt „Was sind die besten CRM-Tools?", passiert eines von zwei Dingen:

  1. Sie werden erwähnt (Sie haben Sichtbarkeit)
  2. Sie werden nicht erwähnt (Sie sind unsichtbar)

Ihr Share of Model ist der Prozentsatz relevanter Prompts, in denen Sie erscheinen.

Der entscheidende Unterschied

Share of Voice Share of Model
Gemessen über viele Berührungspunkte Gemessen über KI-Antworten
Additiv (mehr Kanäle = mehr Voice) Winner-take-most (KI empfiehlt Top-Optionen)
Beeinflusst durch Werbeausgaben Kann (noch) nicht gekauft werden
Relativ stabil Hochvolatil
Deterministische Messung Probabilistische Messung

Warum traditionelle Rankings sich nicht übertragen

Hier ist die frustrierende Realität: Sie können auf Platz 1 bei Google stehen und 0% Sichtbarkeit in ChatGPT haben.

Fallstudie: Der unsichtbare Marktführer

Betrachten Sie ein reales Szenario (anonymisiert):

  • Unternehmen A: Platz 1 für „beste Projektmanagement-Software" bei Google
  • Unternehmen B: Platz 5 für dasselbe Keyword

Als wir ChatGPT fragten „Was ist die beste Projektmanagement-Software?":

  • Unternehmen A: In 12% der Fälle erwähnt
  • Unternehmen B: In 67% der Fälle erwähnt

Wie ist das möglich? Weil SEO und KI-Sichtbarkeit auf völlig unterschiedlicher Logik basieren.

Warum Rankings ≠ KI-Sichtbarkeit

Faktor SEO-Ranking KI-Sichtbarkeit
Datenquelle Live-Web-Crawl Trainingsdaten + RAG
Autoritätssignal Backlinks Entity-Präsenz, Trainingsdaten-Gewicht
Relevanzsignal Keyword-Matching Semantisches Verständnis
Updates Echtzeit Eingefrorenes Training + periodische Updates
Personalisierung Standort, Verlauf Modell-Temperatur (Zufälligkeit)

Diese Diskrepanz erklärt, warum viele Marktführer am Unsichtbare-Marke-Syndrom leiden — traditionelle Suche dominieren, aber in KI-Empfehlungen kaum existieren.

Wie Share of Model berechnet wird

KI-Sichtbarkeit ist keine einzelne Zahl — es ist eine Verteilung über mehrere Faktoren:

Die Kernformel

Sichtbarkeits-Score = (Erwähnungshäufigkeit × Stimmungsgewicht) + Positionsbonus

Wobei:

  • Erwähnungshäufigkeit: % der Prompts, in denen Sie erscheinen
  • Stimmungsgewicht: Positive Erwähnungen zählen mehr als neutrale/negative
  • Positionsbonus: Als Erstes empfohlen werden > zuletzt erwähnt werden

Detaillierte Aufschlüsselung

Komponente Was sie misst Gewicht
Erwähnungsrate Werden Sie überhaupt erwähnt? 50%
Empfehlungsrate Werden Sie spezifisch empfohlen? 20%
Position Wo in der Antwort erscheinen Sie? 15%
Stimmung Ist die Erwähnung positiv? 10%
Genauigkeit Sind die Informationen korrekt? 5%

Beispielberechnung

Prompt: „Was ist die beste E-Mail-Marketing-Plattform?"

Durchlauf Erwähnt? Empfohlen? Position Stimmung
1 Ja Ja 1. Positiv
2 Ja Nein 3. Neutral
3 Nein Nein - -
4 Ja Ja 2. Positiv
5 Ja Nein 4. Positiv

Erwähnungsrate: 4/5 = 80% Empfehlungsrate: 2/5 = 40% Durchschnittliche Position: 2,5 Stimmungs-Score: 4/4 positiv = 100%

Das Sichtbarkeits-Score-Framework

Wir verwenden ein 0-100-Bewertungsframework zur Normalisierung über verschiedene Fragetypen:

Score-Interpretation

Score Kategorie Bedeutung
0-10 Unsichtbar KI kennt Sie nicht oder vertraut Ihnen nicht
10-30 Schwache Präsenz Gelegentlich erwähnt, aber nicht empfohlen
30-50 Moderate Präsenz Regelmäßige Erwähnungen, manchmal empfohlen
50-70 Starke Präsenz Häufig für relevante Anfragen empfohlen
70-90 Kategorieführer Meist erste oder zweite Empfehlung
90-100 Dominant Standardempfehlung für die Kategorie

Branchenbenchmarks

Branche Durchschnittlicher Top-Player-Score Durchschnittlicher Score
CRM 72 (Salesforce, HubSpot) 15
E-Mail-Marketing 68 (Mailchimp) 18
Projektmanagement 65 (Asana, Monday) 14
Cloud-Infrastruktur 85 (AWS, Azure, GCP) 8
Design-Tools 81 (Figma, Adobe) 12

Die meisten Branchen zeigen eine massive Lücke zwischen den Top-3-5-Playern und allen anderen.

Cross-Model-Varianz: Warum GPT und Claude sich widersprechen

Ihr Sichtbarkeits-Score ist nicht konsistent über KI-Plattformen hinweg. Jedes Modell hat unterschiedliche Trainingsdaten, unterschiedliche Verzerrungen und unterschiedliche Empfehlungsmuster.

Beispiel-Varianz

Marke ChatGPT Claude Gemini Perplexity
Marke A 65% 42% 58% 71%
Marke B 23% 67% 31% 29%
Marke C 45% 38% 62% 44%

Warum passiert das?

  1. Trainingsdaten-Unterschiede: ChatGPT, Claude und Gemini werden auf überlappenden, aber unterschiedlichen Datensätzen trainiert. Ihre Marke könnte in einem Korpus gut repräsentiert sein, aber nicht in anderen.

  2. Retrieval-Pipeline-Unterschiede: Jedes System verwendet unterschiedliche RAG-Ansätze. Perplexity stützt sich stark auf Live-Suche; Claude Pro kann andere Quellen verwenden als Claude.

  3. Modell-Persönlichkeit: Jedes Modell hat leichte „Persönlichkeits"-Verzerrungen in der Formulierung von Empfehlungen.

Implikationen

Sie müssen die Sichtbarkeit über mehrere Modelle hinweg verfolgen:

  • Gehen Sie nicht davon aus, dass GPT-Sichtbarkeit = Gesamtsichtbarkeit
  • Verschiedene Nutzerdemografien bevorzugen verschiedene Modelle
  • Optimieren Sie für Portfolio-Abdeckung, nicht nur einen Gewinner

Deshalb aggregieren Multi-Modell-Monitoring-Plattformen Daten aus 10+ LLMs in vereinheitlichten Metriken — eine einzige Dashboard-Ansicht Ihrer wahren cross-model Präsenz.

So messen Sie Ihren Sichtbarkeits-Score

Methode 1: Manuelles Testing (Einstieg)

Führen Sie diese Prompts über ChatGPT, Claude und Gemini aus:

Prompt-Typ Beispiel
Kategorie-Anfrage „Was sind die besten [Ihre Kategorie]-Tools?"
Use-Case-Anfrage „Ich brauche ein Tool für [Anwendungsfall]. Was empfehlen Sie?"
Vergleichs-Anfrage „Vergleiche [Ihre Marke] vs [Wettbewerber]"
Marken-Anfrage „Erzähle mir über [Ihre Marke]"
Problem-Anfrage „Wie löse ich [Problem, das Ihr Produkt löst]?"

Führen Sie jeden Prompt 5-10 Mal aus (KI-Antworten variieren) und verfolgen Sie:

  • Wurden Sie erwähnt?
  • Wurden Sie empfohlen?
  • Welche Position?
  • War die Information korrekt?

Methode 2: Automatisiertes Monitoring (Skalierung)

Für systematisches Tracking automatisieren Plattformen wie AICarma diesen Prozess:

  • Tausende Prompts über 10+ KI-Modelle gleichzeitig ausführen
  • Ergebnisse in drei Kernmetriken aggregieren: Sichtbarkeit (Erwähnungshäufigkeit), Stimmung (Tonanalyse) und Ranking (Wettbewerbsposition)
  • Trends im Zeitverlauf mit Zeitreihenanalyse verfolgen
  • Benchmark gegen Wettbewerber in einer Echtzeit-Sichtbarkeits- & Stimmungsmatrix

Methode 3: Synthetisches Benchmarking (Fortgeschritten)

Erstellen Sie eine Standardbatterie von 50-100 Prompts, die Ihre Ziel-Keywords und Anwendungsfälle repräsentieren. Führen Sie sie wöchentlich als konsistenten Benchmark aus.

Benchmarking: Was ist ein guter Score?

Score-Kategorien

Anfragetyp „Guter" Score „Exzellenter" Score
Marke („Erzähle mir über X") 70%+ 90%+
Kategorie („Beste X-Tools") 25%+ 50%+
Use Case („X für Y-Zweck") 20%+ 40%+
Vergleich („X vs Y") 50%+ 80%+

Wettbewerbsbezogene Einordnung

Ihr absoluter Score zählt weniger als Ihre relative Position. Wenn Sie bei 30% liegen und Ihr Top-Wettbewerber bei 35%, sind Sie wettbewerbsfähig. Wenn er bei 70% liegt, haben Sie Arbeit vor sich.

Trend > Momentaufnahme

Eine einzelne Sichtbarkeitsprüfung ist weniger wertvoll als ein Trend:

  • Score steigt monatlich = Strategie funktioniert
  • Score sinkt = Boden verlieren
  • Score stabil, während Wettbewerber steigt = relativer Rückgang

Ihren Sichtbarkeits-Score verbessern

Niedrige Sichtbarkeit? Hier ist ein priorisiertes Verbesserungsframework:

Quick Wins (1-2 Wochen)

Aktion Impact Aufwand
robots.txt korrigieren, um KI-Crawler zu erlauben Hoch Niedrig
FAQ-Schema zu Schlüsselseiten hinzufügen Mittel Niedrig
Crunchbase/G2-Profile aktualisieren Mittel Niedrig
Preise öffentlich machen Mittel Niedrig

Mittelfristig (1-3 Monate)

Aktion Impact Aufwand
Entity-Präsenz aufbauen Hoch Mittel
Vergleichsinhalte erstellen Mittel Mittel
Umfassendes Schema implementieren Mittel Mittel
Reddit-Präsenz starten Mittel Mittel

Langfristig (3-12 Monate)

Aktion Impact Aufwand
Presseberichterstattung in großen Medien erhalten Hoch Hoch
Wikipedia/Wikidata-Eintrag erreichen Hoch Hoch
Originalforschung veröffentlichen Mittel Hoch
Meinungsführer in der Kategorie werden Hoch Hoch

Das Sichtbarkeits-Schwungrad

Sobald Sie Sichtbarkeit haben, wird deren Erhaltung einfacher:

  1. KI empfiehlt Sie → Nutzer probieren Ihr Produkt
  2. Nutzer diskutieren Sie → Mehr Trainingsdaten
  3. Mehr Trainingsdaten → KI kennt Sie besser
  4. KI empfiehlt Sie häufiger → Wiederholung

Das Schwierige ist, das Schwungrad in Gang zu setzen. Die anfängliche Investition bringt zunehmende Renditen.

Das Sichtbarkeits-Dashboard: Metriken, die zählen

Richten Sie ein Sichtbarkeits-Dashboard ein, das diese Metriken verfolgt:

Primäre Metriken

Metrik Häufigkeit Ziel
Gesamt-Sichtbarkeits-Score Wöchentlich Steigend
Kategorie-Anfragen-Sichtbarkeit Wöchentlich Über Wettbewerbern
Cross-Model-Varianz Monatlich Lücke schließen
Stimmungs-Score Monatlich >80% positiv

Sekundäre Metriken

Metrik Häufigkeit Warum wichtig
Marken-Suchvolumen Monatlich Zeigt KI → direktes Interesse
KI-verwiesener Traffic Wöchentlich Misst tatsächliche Klicks von KI
Genauigkeit der Erwähnungen Monatlich Fängt Halluzinationen früh
Positionsverteilung Monatlich Erste > dritte Position zählt

Wettbewerbsmetriken

Metrik Wie verfolgen
Share of Model vs Top 3 Gleiche Prompts ausführen, % vergleichen
Sichtbarkeits-Lücke-Trend Monatlicher Vergleich
Gewinn/Verlust bei Direktvergleichen Vergleichs-Prompt-Analyse

Plattformen wie AICarma visualisieren die Wettbewerbspositionierung durch eine Sichtbarkeits- & Stimmungsmatrix und platzieren Marken automatisch in Quadranten von „Niedrige Performance" bis „Marktführer", damit Sie sofort sehen, wo Sie stehen.

FAQ

Was ist ein guter KI-Sichtbarkeits-Score für meine Marke?

Für Markenanfragen („Erzähle mir über [Ihre Marke]") streben Sie 70%+ Sichtbarkeit an — die KI sollte wissen, wer Sie sind. Für Kategorieanfragen („Beste CRM-Tools") ist 25%+ wettbewerbsfähig und 50%+ exzellent. Kontext zählt: Wenn Sie ein Nischenanbieter in einer von Großunternehmen dominierten Kategorie sind, können 15% Sichtbarkeit ein signifikanter Gewinn sein.

Ändert sich mein Sichtbarkeits-Score zwischen KI-Modellen?

Ja, erheblich. Sie könnten 60% Sichtbarkeit in ChatGPT haben, aber nur 20% in Claude aufgrund unterschiedlicher Trainingsdaten und Retrieval-Systeme. Verfolgen Sie über mehrere Modelle (ChatGPT, Claude, Gemini, Perplexity) und optimieren Sie für Portfolio-Abdeckung statt nur einer Plattform.

Kann ich bezahlen, um meinen KI-Sichtbarkeits-Score zu verbessern?

Nicht direkt — es gibt noch kein Äquivalent zu „KI-Anzeigen". Ihre Sichtbarkeit wird durch Entity-Stärke, Trainingsdaten-Präsenz und technische Optimierung verdient. Dies kann sich ändern, wenn KI-Unternehmen Monetarisierung erkunden, aber derzeit muss Sichtbarkeit aufgebaut, nicht gekauft werden.

Wie oft sollte ich meine Sichtbarkeit messen?

Wöchentlich für wichtige Kategorieanfragen, monatlich für umfassende Audits. KI-Modellverhalten kann sich mit Updates ändern, daher fängt konsistentes Monitoring sowohl Verbesserungen als auch unerwartete Rückgänge ab.

Wie hängt Sichtbarkeit mit tatsächlichen Geschäftsergebnissen zusammen?

KI-empfohlener Traffic konvertiert typischerweise 2-3x so häufig wie traditioneller Such-Traffic. Nutzer, die über KI-Empfehlung kommen, wurden vorqualifiziert — die KI hat im Wesentlichen Sales Engineering für Sie betrieben. Verfolgen Sie KI-verwiesenen Traffic separat in Analytics, um die wahre Auswirkung zu messen.