Was ist der KI-Sichtbarkeits-Score? Der vollständige Leitfaden zu Share of Model
Letzte Aktualisierung: 22. July 2025
Zwei Jahrzehnte lang waren Marketingverantwortliche von einer Metrik namens Share of Voice (SOV) besessen — welchen Prozentsatz der Konversation Ihre Marke in einer Kategorie besaß. Sie verfolgten Erwähnungen, Impressionen und Rankings, um Ihre Marktpräsenz zu verstehen.
Diese Metrik wird obsolet.
In der KI-Ära gibt es eine neue Metrik, die mehr zählt: Share of Model (SoM), oder was wir Ihren KI-Sichtbarkeits-Score nennen. Er beantwortet eine trügerisch einfache Frage: Wenn Nutzer KI zu Ihrer Kategorie befragen, wie oft erwähnt die KI Sie? Für Unternehmen treibt dieser Wandel fundamentale Veränderungen im Management der Unternehmensreputation voran.
Dies ist keine theoretische Sorge. Bis 2027 prognostizieren Analysten, dass 30-50% der Produktrecherche über KI-Assistenten stattfinden wird. Wenn Ihre Marke einen Share of Model von 5% hat, während Ihr Wettbewerber bei 40% liegt, verlieren Sie die Zukunft der Entdeckung.
Lassen Sie uns diese Metrik verstehen — und wichtiger noch, lernen, wie Sie sie verbessern.

Inhaltsverzeichnis
- Von Share of Voice zu Share of Model
- Warum traditionelle Rankings sich nicht übertragen
- Wie Share of Model berechnet wird
- Das Sichtbarkeits-Score-Framework
- Cross-Model-Varianz: Warum GPT und Claude sich widersprechen
- So messen Sie Ihren Sichtbarkeits-Score
- Benchmarking: Was ist ein guter Score?
- Ihren Sichtbarkeits-Score verbessern
- Das Sichtbarkeits-Dashboard: Metriken, die zählen
- FAQ
Von Share of Voice zu Share of Model
Die alte Welt: Share of Voice
Im traditionellen Marketing maß Share of Voice Ihre Präsenz relativ zu Wettbewerbern:
Ihr Share of Voice = Ihre Erwähnungen / Gesamte Kategorie-Erwähnungen
Sie verfolgten dies über Kanäle hinweg — Suchranking, soziale Erwähnungen, Presseberichterstattung, Anzeigenimpressionen. Höherer SOV korrelierte generell mit höherem Marktanteil.
Die neue Welt: Share of Model
Share of Model wendet dasselbe Konzept auf KI-Empfehlungen an:
Ihr Share of Model = Häufigkeit Ihrer Erwähnung durch KI / Gesamte relevante KI-Antworten
Wenn jemand ChatGPT fragt „Was sind die besten CRM-Tools?", passiert eines von zwei Dingen:
- Sie werden erwähnt (Sie haben Sichtbarkeit)
- Sie werden nicht erwähnt (Sie sind unsichtbar)
Ihr Share of Model ist der Prozentsatz relevanter Prompts, in denen Sie erscheinen.
Der entscheidende Unterschied
| Share of Voice | Share of Model |
|---|---|
| Gemessen über viele Berührungspunkte | Gemessen über KI-Antworten |
| Additiv (mehr Kanäle = mehr Voice) | Winner-take-most (KI empfiehlt Top-Optionen) |
| Beeinflusst durch Werbeausgaben | Kann (noch) nicht gekauft werden |
| Relativ stabil | Hochvolatil |
| Deterministische Messung | Probabilistische Messung |
Warum traditionelle Rankings sich nicht übertragen
Hier ist die frustrierende Realität: Sie können auf Platz 1 bei Google stehen und 0% Sichtbarkeit in ChatGPT haben.
Fallstudie: Der unsichtbare Marktführer
Betrachten Sie ein reales Szenario (anonymisiert):
- Unternehmen A: Platz 1 für „beste Projektmanagement-Software" bei Google
- Unternehmen B: Platz 5 für dasselbe Keyword
Als wir ChatGPT fragten „Was ist die beste Projektmanagement-Software?":
- Unternehmen A: In 12% der Fälle erwähnt
- Unternehmen B: In 67% der Fälle erwähnt
Wie ist das möglich? Weil SEO und KI-Sichtbarkeit auf völlig unterschiedlicher Logik basieren.
Warum Rankings ≠ KI-Sichtbarkeit
| Faktor | SEO-Ranking | KI-Sichtbarkeit |
|---|---|---|
| Datenquelle | Live-Web-Crawl | Trainingsdaten + RAG |
| Autoritätssignal | Backlinks | Entity-Präsenz, Trainingsdaten-Gewicht |
| Relevanzsignal | Keyword-Matching | Semantisches Verständnis |
| Updates | Echtzeit | Eingefrorenes Training + periodische Updates |
| Personalisierung | Standort, Verlauf | Modell-Temperatur (Zufälligkeit) |
Diese Diskrepanz erklärt, warum viele Marktführer am Unsichtbare-Marke-Syndrom leiden — traditionelle Suche dominieren, aber in KI-Empfehlungen kaum existieren.
Wie Share of Model berechnet wird
KI-Sichtbarkeit ist keine einzelne Zahl — es ist eine Verteilung über mehrere Faktoren:
Die Kernformel
Sichtbarkeits-Score = (Erwähnungshäufigkeit × Stimmungsgewicht) + Positionsbonus
Wobei:
- Erwähnungshäufigkeit: % der Prompts, in denen Sie erscheinen
- Stimmungsgewicht: Positive Erwähnungen zählen mehr als neutrale/negative
- Positionsbonus: Als Erstes empfohlen werden > zuletzt erwähnt werden
Detaillierte Aufschlüsselung
| Komponente | Was sie misst | Gewicht |
|---|---|---|
| Erwähnungsrate | Werden Sie überhaupt erwähnt? | 50% |
| Empfehlungsrate | Werden Sie spezifisch empfohlen? | 20% |
| Position | Wo in der Antwort erscheinen Sie? | 15% |
| Stimmung | Ist die Erwähnung positiv? | 10% |
| Genauigkeit | Sind die Informationen korrekt? | 5% |
Beispielberechnung
Prompt: „Was ist die beste E-Mail-Marketing-Plattform?"
| Durchlauf | Erwähnt? | Empfohlen? | Position | Stimmung |
|---|---|---|---|---|
| 1 | Ja | Ja | 1. | Positiv |
| 2 | Ja | Nein | 3. | Neutral |
| 3 | Nein | Nein | - | - |
| 4 | Ja | Ja | 2. | Positiv |
| 5 | Ja | Nein | 4. | Positiv |
Erwähnungsrate: 4/5 = 80% Empfehlungsrate: 2/5 = 40% Durchschnittliche Position: 2,5 Stimmungs-Score: 4/4 positiv = 100%
Das Sichtbarkeits-Score-Framework
Wir verwenden ein 0-100-Bewertungsframework zur Normalisierung über verschiedene Fragetypen:
Score-Interpretation
| Score | Kategorie | Bedeutung |
|---|---|---|
| 0-10 | Unsichtbar | KI kennt Sie nicht oder vertraut Ihnen nicht |
| 10-30 | Schwache Präsenz | Gelegentlich erwähnt, aber nicht empfohlen |
| 30-50 | Moderate Präsenz | Regelmäßige Erwähnungen, manchmal empfohlen |
| 50-70 | Starke Präsenz | Häufig für relevante Anfragen empfohlen |
| 70-90 | Kategorieführer | Meist erste oder zweite Empfehlung |
| 90-100 | Dominant | Standardempfehlung für die Kategorie |
Branchenbenchmarks
| Branche | Durchschnittlicher Top-Player-Score | Durchschnittlicher Score |
|---|---|---|
| CRM | 72 (Salesforce, HubSpot) | 15 |
| E-Mail-Marketing | 68 (Mailchimp) | 18 |
| Projektmanagement | 65 (Asana, Monday) | 14 |
| Cloud-Infrastruktur | 85 (AWS, Azure, GCP) | 8 |
| Design-Tools | 81 (Figma, Adobe) | 12 |
Die meisten Branchen zeigen eine massive Lücke zwischen den Top-3-5-Playern und allen anderen.
Cross-Model-Varianz: Warum GPT und Claude sich widersprechen
Ihr Sichtbarkeits-Score ist nicht konsistent über KI-Plattformen hinweg. Jedes Modell hat unterschiedliche Trainingsdaten, unterschiedliche Verzerrungen und unterschiedliche Empfehlungsmuster.
Beispiel-Varianz
| Marke | ChatGPT | Claude | Gemini | Perplexity |
|---|---|---|---|---|
| Marke A | 65% | 42% | 58% | 71% |
| Marke B | 23% | 67% | 31% | 29% |
| Marke C | 45% | 38% | 62% | 44% |
Warum passiert das?
-
Trainingsdaten-Unterschiede: ChatGPT, Claude und Gemini werden auf überlappenden, aber unterschiedlichen Datensätzen trainiert. Ihre Marke könnte in einem Korpus gut repräsentiert sein, aber nicht in anderen.
-
Retrieval-Pipeline-Unterschiede: Jedes System verwendet unterschiedliche RAG-Ansätze. Perplexity stützt sich stark auf Live-Suche; Claude Pro kann andere Quellen verwenden als Claude.
-
Modell-Persönlichkeit: Jedes Modell hat leichte „Persönlichkeits"-Verzerrungen in der Formulierung von Empfehlungen.
Implikationen
Sie müssen die Sichtbarkeit über mehrere Modelle hinweg verfolgen:
- Gehen Sie nicht davon aus, dass GPT-Sichtbarkeit = Gesamtsichtbarkeit
- Verschiedene Nutzerdemografien bevorzugen verschiedene Modelle
- Optimieren Sie für Portfolio-Abdeckung, nicht nur einen Gewinner
Deshalb aggregieren Multi-Modell-Monitoring-Plattformen Daten aus 10+ LLMs in vereinheitlichten Metriken — eine einzige Dashboard-Ansicht Ihrer wahren cross-model Präsenz.
So messen Sie Ihren Sichtbarkeits-Score
Methode 1: Manuelles Testing (Einstieg)
Führen Sie diese Prompts über ChatGPT, Claude und Gemini aus:
| Prompt-Typ | Beispiel |
|---|---|
| Kategorie-Anfrage | „Was sind die besten [Ihre Kategorie]-Tools?" |
| Use-Case-Anfrage | „Ich brauche ein Tool für [Anwendungsfall]. Was empfehlen Sie?" |
| Vergleichs-Anfrage | „Vergleiche [Ihre Marke] vs [Wettbewerber]" |
| Marken-Anfrage | „Erzähle mir über [Ihre Marke]" |
| Problem-Anfrage | „Wie löse ich [Problem, das Ihr Produkt löst]?" |
Führen Sie jeden Prompt 5-10 Mal aus (KI-Antworten variieren) und verfolgen Sie:
- Wurden Sie erwähnt?
- Wurden Sie empfohlen?
- Welche Position?
- War die Information korrekt?
Methode 2: Automatisiertes Monitoring (Skalierung)
Für systematisches Tracking automatisieren Plattformen wie AICarma diesen Prozess:
- Tausende Prompts über 10+ KI-Modelle gleichzeitig ausführen
- Ergebnisse in drei Kernmetriken aggregieren: Sichtbarkeit (Erwähnungshäufigkeit), Stimmung (Tonanalyse) und Ranking (Wettbewerbsposition)
- Trends im Zeitverlauf mit Zeitreihenanalyse verfolgen
- Benchmark gegen Wettbewerber in einer Echtzeit-Sichtbarkeits- & Stimmungsmatrix
Methode 3: Synthetisches Benchmarking (Fortgeschritten)
Erstellen Sie eine Standardbatterie von 50-100 Prompts, die Ihre Ziel-Keywords und Anwendungsfälle repräsentieren. Führen Sie sie wöchentlich als konsistenten Benchmark aus.
Benchmarking: Was ist ein guter Score?
Score-Kategorien
| Anfragetyp | „Guter" Score | „Exzellenter" Score |
|---|---|---|
| Marke („Erzähle mir über X") | 70%+ | 90%+ |
| Kategorie („Beste X-Tools") | 25%+ | 50%+ |
| Use Case („X für Y-Zweck") | 20%+ | 40%+ |
| Vergleich („X vs Y") | 50%+ | 80%+ |
Wettbewerbsbezogene Einordnung
Ihr absoluter Score zählt weniger als Ihre relative Position. Wenn Sie bei 30% liegen und Ihr Top-Wettbewerber bei 35%, sind Sie wettbewerbsfähig. Wenn er bei 70% liegt, haben Sie Arbeit vor sich.
Trend > Momentaufnahme
Eine einzelne Sichtbarkeitsprüfung ist weniger wertvoll als ein Trend:
- Score steigt monatlich = Strategie funktioniert
- Score sinkt = Boden verlieren
- Score stabil, während Wettbewerber steigt = relativer Rückgang
Ihren Sichtbarkeits-Score verbessern
Niedrige Sichtbarkeit? Hier ist ein priorisiertes Verbesserungsframework:
Quick Wins (1-2 Wochen)
| Aktion | Impact | Aufwand |
|---|---|---|
| robots.txt korrigieren, um KI-Crawler zu erlauben | Hoch | Niedrig |
| FAQ-Schema zu Schlüsselseiten hinzufügen | Mittel | Niedrig |
| Crunchbase/G2-Profile aktualisieren | Mittel | Niedrig |
| Preise öffentlich machen | Mittel | Niedrig |
Mittelfristig (1-3 Monate)
| Aktion | Impact | Aufwand |
|---|---|---|
| Entity-Präsenz aufbauen | Hoch | Mittel |
| Vergleichsinhalte erstellen | Mittel | Mittel |
| Umfassendes Schema implementieren | Mittel | Mittel |
| Reddit-Präsenz starten | Mittel | Mittel |
Langfristig (3-12 Monate)
| Aktion | Impact | Aufwand |
|---|---|---|
| Presseberichterstattung in großen Medien erhalten | Hoch | Hoch |
| Wikipedia/Wikidata-Eintrag erreichen | Hoch | Hoch |
| Originalforschung veröffentlichen | Mittel | Hoch |
| Meinungsführer in der Kategorie werden | Hoch | Hoch |
Das Sichtbarkeits-Schwungrad
Sobald Sie Sichtbarkeit haben, wird deren Erhaltung einfacher:
- KI empfiehlt Sie → Nutzer probieren Ihr Produkt
- Nutzer diskutieren Sie → Mehr Trainingsdaten
- Mehr Trainingsdaten → KI kennt Sie besser
- KI empfiehlt Sie häufiger → Wiederholung
Das Schwierige ist, das Schwungrad in Gang zu setzen. Die anfängliche Investition bringt zunehmende Renditen.
Das Sichtbarkeits-Dashboard: Metriken, die zählen
Richten Sie ein Sichtbarkeits-Dashboard ein, das diese Metriken verfolgt:
Primäre Metriken
| Metrik | Häufigkeit | Ziel |
|---|---|---|
| Gesamt-Sichtbarkeits-Score | Wöchentlich | Steigend |
| Kategorie-Anfragen-Sichtbarkeit | Wöchentlich | Über Wettbewerbern |
| Cross-Model-Varianz | Monatlich | Lücke schließen |
| Stimmungs-Score | Monatlich | >80% positiv |
Sekundäre Metriken
| Metrik | Häufigkeit | Warum wichtig |
|---|---|---|
| Marken-Suchvolumen | Monatlich | Zeigt KI → direktes Interesse |
| KI-verwiesener Traffic | Wöchentlich | Misst tatsächliche Klicks von KI |
| Genauigkeit der Erwähnungen | Monatlich | Fängt Halluzinationen früh |
| Positionsverteilung | Monatlich | Erste > dritte Position zählt |
Wettbewerbsmetriken
| Metrik | Wie verfolgen |
|---|---|
| Share of Model vs Top 3 | Gleiche Prompts ausführen, % vergleichen |
| Sichtbarkeits-Lücke-Trend | Monatlicher Vergleich |
| Gewinn/Verlust bei Direktvergleichen | Vergleichs-Prompt-Analyse |
Plattformen wie AICarma visualisieren die Wettbewerbspositionierung durch eine Sichtbarkeits- & Stimmungsmatrix und platzieren Marken automatisch in Quadranten von „Niedrige Performance" bis „Marktführer", damit Sie sofort sehen, wo Sie stehen.
FAQ
Was ist ein guter KI-Sichtbarkeits-Score für meine Marke?
Für Markenanfragen („Erzähle mir über [Ihre Marke]") streben Sie 70%+ Sichtbarkeit an — die KI sollte wissen, wer Sie sind. Für Kategorieanfragen („Beste CRM-Tools") ist 25%+ wettbewerbsfähig und 50%+ exzellent. Kontext zählt: Wenn Sie ein Nischenanbieter in einer von Großunternehmen dominierten Kategorie sind, können 15% Sichtbarkeit ein signifikanter Gewinn sein.
Ändert sich mein Sichtbarkeits-Score zwischen KI-Modellen?
Ja, erheblich. Sie könnten 60% Sichtbarkeit in ChatGPT haben, aber nur 20% in Claude aufgrund unterschiedlicher Trainingsdaten und Retrieval-Systeme. Verfolgen Sie über mehrere Modelle (ChatGPT, Claude, Gemini, Perplexity) und optimieren Sie für Portfolio-Abdeckung statt nur einer Plattform.
Kann ich bezahlen, um meinen KI-Sichtbarkeits-Score zu verbessern?
Nicht direkt — es gibt noch kein Äquivalent zu „KI-Anzeigen". Ihre Sichtbarkeit wird durch Entity-Stärke, Trainingsdaten-Präsenz und technische Optimierung verdient. Dies kann sich ändern, wenn KI-Unternehmen Monetarisierung erkunden, aber derzeit muss Sichtbarkeit aufgebaut, nicht gekauft werden.
Wie oft sollte ich meine Sichtbarkeit messen?
Wöchentlich für wichtige Kategorieanfragen, monatlich für umfassende Audits. KI-Modellverhalten kann sich mit Updates ändern, daher fängt konsistentes Monitoring sowohl Verbesserungen als auch unerwartete Rückgänge ab.
Wie hängt Sichtbarkeit mit tatsächlichen Geschäftsergebnissen zusammen?
KI-empfohlener Traffic konvertiert typischerweise 2-3x so häufig wie traditioneller Such-Traffic. Nutzer, die über KI-Empfehlung kommen, wurden vorqualifiziert — die KI hat im Wesentlichen Sales Engineering für Sie betrieben. Verfolgen Sie KI-verwiesenen Traffic separat in Analytics, um die wahre Auswirkung zu messen.