A/B-Test
Ein A/B-Test ist die kontrollierte Gegenüberstellung zweier Varianten — typisch einer Webseite oder Anzeige — zur statistisch belastbaren Ermittlung, welche Variante besser performt.
Glossar
Begriffs-Definitionen aus Performance Marketing, SEO, AI-SEO und Conversion-Optimierung — jeweils mit Standard-Definition und Calvarius-Praxis-Block. Pillar-Einträge verlinken in vertiefte Leistungen und Beiträge.
Inventar
Ein A/B-Test ist die kontrollierte Gegenüberstellung zweier Varianten — typisch einer Webseite oder Anzeige — zur statistisch belastbaren Ermittlung, welche Variante besser performt.
AI Mode ist Googles vollwertige konversationelle KI-Such-Erfahrung als eigener Tab in den Suchergebnissen — strukturell verschieden von AI Overviews durch Multi-Turn-Konversation und tiefere Antwort-Strukturen.
AI Overviews ist Googles KI-generierter Antwort-Block, der oberhalb der klassischen organischen Suchergebnisse erscheint und Inhalte aus mehreren Quellen zusammengefasst präsentiert.
AI-Crawler sind die Web-Crawler der KI-Such- und KI-Sprachmodell-Anbieter, die Web-Inhalte für Trainingsdaten und Such-Funktionen sammeln — mit unterschiedlichen Steuerungs-Logiken pro Anbieter.
Ein Attribution-Modell ist die Methodik, mit der einer Conversion ein oder mehrere Touchpoints zugeordnet werden — entscheidend für die Bewertung einzelner Marketing-Kanäle in komplexen Customer Journeys.
B2B (Business-to-Business) und B2C (Business-to-Consumer) bezeichnen die zwei fundamentalen Marketing-Logiken nach Empfänger-Typ. Strukturelle Unterschiede: B2B-Kauf-Prozesse dauern Wochen bis Monate, involvieren mehrere Entscheider, brauchen rationale Argumentation und detaillierte Informationen; B2C-Kauf-Prozesse sind kürzer, emotionaler, oft Einzelpersonen-Entscheidungen. Daraus folgen unterschiedliche Marketing-Tools: B2B nutzt LinkedIn, Webinare, Whitepaper, Lead Generation; B2C nutzt Instagram, Performance Max, Retargeting, schnellere Conversion-Pfade. Wer B2B-Kampagnen mit B2C-Methodik steuert (oder umgekehrt), produziert systematisch schlechtere Ergebnisse.
Das Backlink-Profil umfasst alle externen Links, die auf eine Website verweisen. Bewertungs-Kriterien sind Anzahl, thematische Relevanz der verlinkenden Sites, deren Domain Authority und die Diversität der Quellen. Historisch war das Backlink-Profil der dominante Ranking-Faktor in Googles Algorithmus. In der AI-Such-Ära ist seine relative Bedeutung etwas zurückgegangen — KI-Such-Systeme bewerten Inhalts-Substanz, semantische Klarheit und Erst-Hand-Beobachtungen zunehmend gleichwertig. Künstlich aufgebaute Backlinks (Linkfarmen, Paid-Links) sind weiterhin abgestraftes Risiko, nicht abgekupferter Hebel.
Bid Inflation ist der Effekt, dass durchschnittliche Klick-Preise in Werbe-Auktionen über die Zeit steigen — verstärkt durch den Einsatz automatisierter Smart-Bidding-Strategien. Wenn mehrere Wettbewerber gleichzeitig auf Target CPA oder Maximize Conversions setzen, optimieren ihre Algorithmen jeweils auf Conversion-Wahrscheinlichkeit und überbieten sich in lukrativen Mikro-Auktionen. Wirtschaftliche Folge: CPCs steigen branchen-weit, ohne dass die Conversion-Rate sich entsprechend verbessert. Strategische Antwort: nicht jeder Wettbewerbs-Auktion folgen, sondern eigene Effizienz-Schwellen halten — auch wenn das Volumen kostet.
Bounce Rate (Absprungrate) ist der Prozentsatz von Sitzungen, bei denen ein Nutzer nur eine einzige Seite aufruft und dann die Site verlässt. In Google Analytics Universal (GA3) war Bounce Rate eine zentrale Metrik. In GA4 wurde sie strukturell ersetzt durch die „Engagement Rate" — eine Sitzung gilt als engagiert, wenn sie mindestens 10 Sekunden dauert, eine Conversion enthält oder mindestens zwei Seitenaufrufe hat. Praxis-Hinweis: hohe Bounce Rate ist nicht automatisch schlecht — bei Informations-Seiten (Glossar-Eintrag, Blog-Beitrag mit konkreter Antwort) sind viele „Bounces" eigentlich erfolgreiche kurze Besuche. Bewertung muss kontext-spezifisch erfolgen.
Budget Pacing bezeichnet die zeitliche Verteilungs-Logik, mit der Werbe-Plattformen wie Google Ads das eingestellte Budget über einen Zeitraum ausgeben — entweder gleichmäßig (Standard-Pacing) oder beschleunigt (Accelerated Pacing).
Der Canonical Tag (`<link rel="canonical" href="...">`) signalisiert Suchmaschinen bei mehreren identischen oder ähnlichen Seiten, welche die bevorzugte Version ist. Typische Anwendungsfälle: Tracking-Parameter-URLs (`?utm_source=...`), Filter- und Sortier-URLs in Shops, Druck-Versionen einer Seite, Sprach-Versionen bei nicht-vollständigem Übersetzungs-Setup. Bei fehlendem oder falsch gesetztem Canonical entstehen Duplicate-Content-Probleme — Suchmaschinen wählen dann selbst eine URL, oft mit nachteiligem Ergebnis für die Sichtbarkeit. Bei mehrsprachigen Sites Zusammenspiel mit Hreflang beachten.
Claude-Web bezeichnet Anthropics Crawler-Familie für die Web-Such-Funktionalität von Claude. Anthropic differenziert zwischen mehreren Sub-Bots: `ClaudeBot` für Trainings-Daten-Sammlung, `Claude-Web` für Such-Funktionalität, `claude-user` für direkte Nutzer-Anfragen (etwa wenn Claude-Nutzer Web-Inhalte explizit anfordern). Steuerung über Robots.txt mit den entsprechenden User-Agent-Strings. Praxis-Beobachtung: Claude zitiert seine Quellen in der Such-Funktion deutlich prominenter als ChatGPT — wer in der Anthropic-Welt sichtbar sein will, sollte Claude-Web nicht blockieren.
Die Click-Through-Rate (CTR) ist das Verhältnis von Klicks zu Impressionen, ausgedrückt in Prozent. Berechnung: Klicks geteilt durch Impressionen, mal 100. CTR ist ein zentraler Indikator für Anzeigen- oder Snippet-Attraktivität — schlechte CTR signalisiert, dass die Darstellung nicht relevant genug erscheint. In Google Ads fließt CTR in den Quality Score ein. In organischen SERPs nutzt Google CTR als Ranking-Signal — wenn Snippets bei vergleichbarer Position systematisch öfter angeklickt werden, steigt das Ranking. In der AI-Such-Ära wird CTR strukturell komplizierter, weil viele Antworten in der AI-Übersicht stattfinden ohne Klick.
Die Conversion Rate ist der prozentuale Anteil von Besuchern oder Sitzungen, die eine definierte Conversion-Aktion ausführen — die zentrale Metrik in Performance-Marketing und Conversion-Optimierung.
Conversion Rate Optimization (CRO) ist die Disziplin der systematischen Erhöhung des Anteils von Besuchern, die eine gewünschte Aktion ausführen — Kauf, Lead-Anmeldung, Download. Methodisch arbeitet CRO mit drei Säulen: quantitative Analyse (Web-Analytics, Funnel-Daten), qualitative Analyse (Heatmaps, Session Recordings, Nutzer-Befragungen) und iterative Tests (A/B-Tests, Multivariate Tests). Wirtschaftliche Relevanz: oft ist eine 30-prozentige Conversion-Rate-Verbesserung günstiger zu erreichen als eine 30-prozentige Traffic-Steigerung — bei identischem Volumen-Effekt. CRO ist daher meist die wirtschaftlich rationalste Optimierungs-Disziplin bei Sites mit ausreichend Traffic.
Der Conversion-Funnel ist die strukturierte Visualisierung der Schritte, die ein Nutzer typischerweise vom Erstkontakt mit einer Marke bis zur Conversion durchläuft. Klassische Schritte: Awareness (Bekanntheit), Interest (Interesse), Consideration (Erwägung), Conversion (Abschluss), gelegentlich erweitert um Retention (Bindung) und Advocacy (Empfehlung). Praxis-Nutzen: durch Messung der Drop-off-Raten zwischen Funnel-Stufen lassen sich strukturelle Schwächen identifizieren. Beispiel: wenn 100 Nutzer einen Trial starten, davon 20 die Onboarding-Tour abschließen und nur 3 konvertieren, liegt der primäre Hebel zwischen Onboarding und Conversion. Wichtig: nicht alle Nutzer-Reisen sind linear — Multi-Touch-Attribution ist häufig realistischer als reine Trichter-Modelle.
Cookieless-Tracking bezeichnet Tracking-Methoden, die ohne Drittanbieter-Cookies funktionieren — als Reaktion auf Browser-Privacy-Updates (Safari ITP, Firefox ETP, Chrome Third-Party-Cookie-Phase-Out) und regulatorische Vorgaben. Wichtige Methoden: Server-Side-Tracking (Daten gehen vom Server statt vom Browser an Analytics-Tools), First-Party-Tracking (eigene Cookies auf der eigenen Domain), Hash-basierte Nutzer-Erkennung (z.B. über E-Mail-Hash), kontext-basierte Werbe-Strategien ohne Personen-Tracking. Praxis-Implikation: klassische Funnel-Attribution funktioniert weniger zuverlässig, dafür gewinnen Aggregations-Modelle (Modeled Conversions in Google Ads, Conversion-Modellierung in GA4) an Bedeutung.
Core Web Vitals sind Googles standardisierte Performance-Metriken zur quantitativen Bewertung der Nutzer-Erfahrung einer Webseite — LCP, INP und CLS — mit direktem Einfluss auf das Ranking.
CPA (Cost per Acquisition, Cost per Action) bezeichnet die Kosten, die ein Werbetreibender im Schnitt für eine Conversion zahlt — sei es ein Verkauf, eine Lead-Anmeldung, ein Download oder eine andere definierte Aktion. Berechnung: Werbe-Kosten geteilt durch Conversions im gleichen Zeitraum. Wirtschaftliche Relevanz: CPA ist die zentrale Performance-Marketing-Metrik. Smart-Bidding-Strategien wie Target CPA optimieren explizit auf diese Metrik. Wichtig: CPA muss in Relation zum Customer Lifetime Value (CLV) bewertet werden — eine niedrige CPA bei niedrigem CLV ist wirtschaftlich schlechter als eine höhere CPA bei hohem CLV.
CPC (Cost per Click) ist das dominante Abrechnungs-Modell in Such- und Display-Werbung: Werbetreibende zahlen nur, wenn ein Nutzer tatsächlich auf die Anzeige klickt. Der tatsächlich gezahlte CPC ergibt sich aus einer Auktions-Logik mit Mit-Bieter-Geboten und Quality Score als Modifikator — selten der maximal gebotene Wert. Strategische Bedeutung: CPC ist Zwischen-Metrik, nicht Ziel-Metrik. Eine niedrige CPC bei hoher Bounce-Rate ist wirtschaftlich schlechter als eine höhere CPC bei guter Conversion-Rate. Die wirtschaftliche Zielmetrik ist CPA, nicht CPC.
CPM (Cost per Mille, Cost per Thousand Impressions) ist das Werbe-Abrechnungs-Modell pro tausend Anzeigen-Einblendungen — unabhängig davon, ob Nutzer klicken oder konvertieren. Standard für Display-Werbung, YouTube-Branding-Kampagnen und Programmatic-Buying. Sinnvoll, wenn das Marketing-Ziel Reichweite und Sichtbarkeit ist (Branding, Produkt-Launch), nicht direkte Performance. Wirtschaftliche Komplikation: CPM-Kampagnen liefern Reichweiten-Daten, aber keine direkten Conversion-Signale — die Erfolgs-Messung verschiebt sich auf indirekte KPIs wie Brand-Lift, Direct-Traffic-Zuwachs oder Search-Volume-Anstieg.
Das Crawl-Budget ist die Anzahl von URLs, die ein Suchmaschinen-Crawler — primär Googlebot — innerhalb eines bestimmten Zeitraums auf einer Domain aufruft. Bei kleinen Sites (unter 1.000 Seiten) praktisch irrelevant, weil Google ohnehin alles crawlt. Bei großen Sites (mehrere zehntausend bis Millionen URLs) wirtschaftlich kritisch: wenn das Crawl-Budget durch unwichtige URLs (Filter-Kombinationen, Tracking-Parameter, alte Inhalte) aufgebraucht wird, bleiben wichtige neue Inhalte unindexiert. Hebel zur Optimierung: Robots.txt-Disallow für unwichtige Pfade, XML-Sitemap-Priorisierung, Canonical-Tags, Server-Performance — Crawler reduzieren ihre Frequenz, wenn die Site langsam reagiert.
Day-Parting bezeichnet die Strategie, Werbe-Anzeigen nach Tageszeit, Wochentag oder weiteren zeitlichen Mustern auszuspielen — etwa nur während Bürozeiten für B2B-Mandate oder am Abend für B2C-Impulskäufe. Umgesetzt wird Day-Parting über den Werbezeitplaner der jeweiligen Werbe-Plattform. Wichtig: Mit der Änderung des Google-Ads-Budget-Pacings ab Juni 2026 wirkt Day-Parting anders als zuvor — Tagesbudget-Logik und Werbezeitplaner-Logik sind nicht mehr proportional gekoppelt. Wer enge Day-Parting-Fenster nutzt, muss seine Budget-Strategie entsprechend anpassen.
DefinedTerm ist der Schema.org-Typ für Begriffs-Definitionen — speziell konzipiert für Glossar-Einträge, Wörterbuch-Definitionen und Fach-Terminologie. Wichtige Properties: `name` (Begriff selbst), `description` (Definition), `inDefinedTermSet` (Verweis auf übergeordnete Sammlung), `termCode` (technischer Identifier). KI-Such-Systeme wie ChatGPT, Claude und Perplexity bewerten DefinedTerm-Markup höher als generisches Article- oder BlogPosting-Markup bei „Was ist X"-Anfragen — weil es semantisch präziser signalisiert, dass die Seite eine Begriffs-Definition ist. Kombiniert mit DefinedTermSet auf der Glossar-Übersichts-Seite ein starker AI-SEO-Hebel.
DefinedTermSet ist der Schema.org-Typ für eine Sammlung von DefinedTerm-Einträgen — das semantisch passende Markup für die Übersichts-Seite eines Glossars. Wichtige Properties: `name` (Name der Sammlung, z.B. „Calvarius Glossar"), `description`, `hasDefinedTerm` (Liste der enthaltenen DefinedTerm-Verweise per `@id`). Suchmaschinen erkennen über DefinedTermSet die strukturelle Beziehung zwischen Übersichts-Seite und Detail-Einträgen — was für Site-Architektur-Bewertung und Indexierungs-Logik relevant ist. Kombiniert mit DefinedTerm auf den einzelnen Detail-Seiten ein konsistentes Schema-Setup für Glossare aller Größen.
Domain Authority bezeichnet die übergeordnete Vertrauens- und Sichtbarkeits-Stärke einer Domain in Suchmaschinen — konzeptuell zentral, technisch unterschiedlich definiert je nach Tool und Modell.
DSGVO-konformes Tracking bezeichnet Web-Analytics und Werbe-Tracking unter Beachtung der Datenschutz-Grundverordnung. Drei Kern-Prinzipien: Einwilligung (Tracking-Cookies dürfen erst nach aktiver Zustimmung gesetzt werden), Datenminimierung (nur Daten erfassen, die für definierten Zweck nötig sind), Transparenz (Datenschutz-Erklärung mit konkreter Auflistung der Tools). Operativ relevant: Cookie-Consent-Banner (Consent Management Platforms wie Cookiebot, Usercentrics, Borlabs), Server-Side-Tracking als Privacy-freundlichere Alternative, Verzicht auf Drittanbieter-Tracker wo möglich. Wirtschaftliche Folge: Tracking-Daten nach Einwilligung erfassen typisch nur 60-85 Prozent der Sitzungen, was Performance-Analytics methodisch komplizierter macht.
E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) ist Googles offizielles Bewertungs- Framework für Content-Qualität — zentral in den Search Quality Rater Guidelines und über Algorithmen in das Ranking eingebunden.
Featured Snippets sind hervorgehobene Antwort-Boxen am oberen Rand der Google-Suchergebnisse — manchmal als „Position Zero" bezeichnet, weil sie über dem ersten organischen Ergebnis stehen. Inhalts-Formate: kurze Definitionen, Aufzählungen, Tabellen, Video-Snippets. Featured Snippets sind der direkte Vorläufer der AI Overviews — beide reduzieren Klick-Rate auf organische Ergebnisse darunter. Seit Mai 2024 in den USA, seit März 2025 in DACH-Markt werden viele Featured Snippets von AI Overviews verdrängt. Strategisch: Inhalte, die für Featured Snippets optimiert sind, funktionieren oft auch für KI-Antworten.
First-Party-Daten sind Daten, die ein Unternehmen direkt aus eigenen Interaktionen mit Nutzern erfasst — Newsletter-Anmeldungen, Kauf-Verhalten im eigenen Shop, Account-Daten, Kontakt-Anfragen, Web-Analytics auf der eigenen Domain. Im Gegensatz zu Third-Party-Daten, die von externen Anbietern stammen (Datenbroker, Drittanbieter-Cookies). Strategische Bedeutung: mit dem Wegfall von Drittanbieter-Cookies in Chrome (kontinuierlicher Prozess seit 2024) und vergleichbaren Browser-Beschränkungen werden First-Party-Daten zur primären Quelle für Targeting, Personalisierung und Werbe-Optimierung. Wirtschaftliche Folge: Investitionen in eigene Daten-Erfassung (Newsletter, Account-Systeme, CRM) sind heute strategisch wertvoller als vor 5 Jahren.
Eine Funnel-Analyse untersucht die Drop-off-Raten zwischen den Schritten eines Conversion-Trichters — diagnostisches Werkzeug zur Identifikation struktureller Conversion-Schwächen.
Generative Engine Optimization ist die Disziplin der systematischen Optimierung von Web-Inhalten für KI-Such-Systeme wie ChatGPT, Claude, Perplexity und Googles AI-Suchprodukte — das Pendant zu SEO für die AI-Such-Ära.
GPTBot ist OpenAIs Crawler, der Webinhalte für das Training zukünftiger ChatGPT-Modelle sammelt. Eingeführt im August 2023, über Robots.txt blockierbar via `User-agent: GPTBot` + `Disallow: /`. Wichtig: GPTBot ist getrennt von OAI-SearchBot, dem Crawler für ChatGPT-Search-Funktion — eine Site kann GPTBot blockieren, OAI-SearchBot aber zulassen (oder umgekehrt). Strategische Entscheidung: Wer Trainings-Daten verweigert, schließt sich von zukünftiger ChatGPT-Bekanntheit aus; wer zulässt, trägt zur Modell-Substanz bei, ohne direkten Zitations-Anspruch. Die meisten Site-Betreiber lassen GPTBot zu — der Sichtbarkeits-Nachteil bei Blockierung überwiegt das Daten-Schutz-Argument.
Eine Heatmap ist eine farbliche Visualisierung von Nutzer-Verhalten auf einer Webseite. Drei Typen sind verbreitet: Click-Heatmaps zeigen, wo Nutzer klicken; Scroll-Heatmaps zeigen, wie weit sie scrollen; Move-Heatmaps zeigen Maus-Bewegungs-Muster. Tools: Hotjar, Microsoft Clarity (kostenlos), Mouseflow, Crazy Egg. Wertvoll für Conversion-Optimierung — Heatmaps zeigen, ob CTAs wahrgenommen werden, ob wichtige Inhalte erreicht werden und ob es Klick-Versuche auf nicht-klickbare Elemente gibt. Wichtige Limitierung: Maus-Bewegung korreliert auf Mobile nicht mit Aufmerksamkeit; Click-Heatmaps zeigen nur, was passiert ist, nicht warum.
Hreflang ist ein HTML-Attribut, das auf mehrsprachigen oder regions-spezifischen Websites die Beziehung zwischen verschiedenen Sprach- und Regions-Versionen einer Seite definiert. Jede Seite verweist mit hreflang-Tags auf ihre Pendants (z.B. `de`, `en`, `x-default`), damit Suchmaschinen Nutzern die passende Locale-Version ausspielen. Häufige Fehler in der Praxis: fehlende Selbstreferenzen, asymmetrische Pendant-Verweise (Seite A verweist auf B, B aber nicht zurück), oder Konflikte zwischen hreflang und Canonical Tag. Search Console meldet hreflang-Probleme als eigenen Report.
Hydration ist der Prozess, bei dem server-seitig vorgerendetes HTML im Browser durch JavaScript „belebt" und interaktiv gemacht wird — zentrale Mechanik moderner SSR-Web-Frameworks.
Inline-Linking ist die Praxis, Quellen-Links in KI-generierten Antworten direkt neben dem dazu passenden Text-Fragment zu platzieren, anstatt sie ausschließlich in einer Quellen-Liste am Ende anzuzeigen. Google hat Inline-Linking im Mai 2026 für AI Overviews und AI Mode prominenter ausgespielt. Aus Sicht der Sites profitieren primär Inhalte mit fragment-spezifisch zitierbarer Substanz — klare Definitionen, prägnante Schritt-Aussagen, präzise Aufzählungen. Narrative Argumentation, die nur als Ganzes Sinn ergibt, wird seltener inline-verlinkt.
Internal Linking bezeichnet die Verlinkung zwischen Seiten innerhalb derselben Domain. Drei Funktionen sind zentral: erstens, Verteilung von PageRank von autoritativen Hub-Seiten zu thematisch verwandten Detail-Seiten; zweitens, Steuerung der Crawler-Navigation und Crawl-Tiefe; drittens, Signalisierung thematischer Cluster und Topical Authority an Suchmaschinen. Strategisch wichtig ist die Disziplin der Verlinkungs-Logik — wahllos viele Links erzeugen Link-Inflation, selektive Links zu strategischen Ziel-Seiten verteilen Authority effizient.
JSON-LD (JavaScript Object Notation for Linked Data) ist ein Format für strukturierte Daten in HTML-Seiten, das in einem `<script type="application/ld+json">`-Block eingebettet wird. Google bevorzugt JSON-LD gegenüber älteren Alternativen wie Microdata oder RDFa — es ist saubrer zu pflegen, vom sichtbaren Content getrennt und einfacher zu validieren. Schema.org-Markup wird heute überwiegend als JSON-LD implementiert: DefinedTerm, Article, Product, Organization, BreadcrumbList und so weiter. Wichtige Praxis-Disziplin: JSON-LD muss inhaltlich mit dem sichtbaren Content der Seite übereinstimmen — strukturierte Daten, die andere Informationen behaupten als die Seite zeigt, gelten als Spam-Versuch.
Ein Knowledge Panel ist eine Informations-Box, die Google rechts neben den Suchergebnissen bei Anfragen zu Entitäten — Personen, Unternehmen, Orten, Werken — anzeigt. Daten-Quelle ist Googles Knowledge Graph, eine strukturierte Datenbank von Entitäten und ihren Eigenschaften. Quellen für Knowledge-Panel-Inhalte: Wikipedia, Wikidata, offizielle Websites, strukturierte Daten der Entität. Für Unternehmen relevant: ein Knowledge Panel signalisiert Authority und nimmt prominenten SERP-Platz ein. Aufbau eines Knowledge Panels braucht Konsistenz in Entitäts-Daten über mehrere Quellen — Google Business Profile, Wikipedia-Eintrag, Schema.org-Markup auf der eigenen Site.
Die zentralen Core Web Vitals bestehen aus vier Metriken: LCP (Largest Contentful Paint) misst die Zeit bis zum Rendering des größten sichtbaren Content-Elements — Ziel unter 2,5 Sekunden. FID (First Input Delay) misst die Verzögerung der ersten Nutzer-Interaktion — wurde im März 2024 durch INP ersetzt. CLS (Cumulative Layout Shift) misst die visuelle Stabilität, also wie viel Layout-Verschiebung während des Ladens passiert — Ziel unter 0,1. INP (Interaction to Next Paint) misst die Reaktions-Schnelligkeit auf alle Nutzer-Interaktionen — Ziel unter 200 Millisekunden. Schlechte Werte bei einer dieser Metriken können Rankings spürbar belasten.
Lead Generation ist die Disziplin der systematischen Gewinnung von qualifizierten Interessenten — Personen oder Unternehmen, die ein nachweisbares Interesse am Angebot signalisiert haben. Im B2B-Kontext oft der primäre KPI von Performance-Kampagnen, weil der Verkaufs-Prozess länger und beratungs-intensiv ist und direkte Online-Conversions selten sind. Typische Lead-Conversion-Pfade: Whitepaper-Download, Demo-Anfrage, Beratungs-Termin, Kontakt-Formular. Wirtschaftliche Differenzierung: Marketing-Qualified-Lead (MQL) versus Sales-Qualified-Lead (SQL) — nicht jeder Lead hat den gleichen wirtschaftlichen Wert, was die CPA-Steuerung in Werbe-Kampagnen verkompliziert.
Long-Tail-Keywords sind spezifische, oft mehrwortige Such-Anfragen mit geringem Such-Volumen, dafür hoher Intent-Klarheit. Beispiel: „Schuhe" ist ein Short-Tail-Keyword, „wasserdichte Wanderschuhe für breite Füße Damen" ist Long-Tail. Wirtschaftliche Relevanz: Long-Tail-Anfragen haben deutlich höhere Conversion-Wahrscheinlichkeit, weil die Such-Intention klarer ist. In der KI-Such-Ära werden Long-Tail-Anfragen zunehmend in AI Overviews beantwortet — wer dort als Quelle zitiert wird, erhält qualifizierten Traffic ohne Wettbewerb mit großen Wettbewerbern um Short-Tail-Keywords.
Maximize Conversions ist eine Smart-Bidding-Strategie in Google Ads, die das eingestellte Budget vollständig ausgibt und algorithmisch auf maximale Conversion-Anzahl optimiert. Anders als Target CPA gibt es keinen festen Cost-per-Action-Zielwert — die Strategie skaliert Gebote so weit hoch, wie das Budget reicht. Praxis-Relevanz: bei steigenden Budgets ohne Strategie-Anpassung führt Maximize Conversions tendenziell zu sinkender Conversion-Qualität, weil zunehmend teure Klicks mit unscharferem Intent eingekauft werden. Sinnvoll vor allem bei klar definiertem Budget und ausreichendem Conversion-Volumen für Algorithmus-Lernen (mindestens 30 Conversions/Monat).
OAI-SearchBot ist OpenAIs Crawler, der Web-Inhalte für die ChatGPT-Such-Funktion (SearchGPT, ChatGPT Search) indexiert — getrennt von GPTBot, dem Trainings-Crawler. Diese Trennung ist strategisch relevant: Site-Betreiber können differenziert entscheiden, ob ihre Inhalte für Trainings-Daten genutzt werden dürfen (GPTBot-Steuerung) und ob sie in ChatGPT-Search-Antworten als Quelle erscheinen (OAI-SearchBot-Steuerung). Wer OAI-SearchBot über Robots.txt blockiert, verzichtet auf die Möglichkeit, in ChatGPT-Search zitiert zu werden — was angesichts wachsender Nutzer-Zahlen meist nicht sinnvoll ist.
Performance Marketing ist die Marketing-Disziplin, bei der jede Maßnahme messbare Performance produziert und entlang quantitativer KPIs (Klicks, Conversions, Umsatz, CPA, ROAS) gesteuert wird. Im Gegensatz zu Branding-Marketing, bei dem Wirkung längerfristig und schwerer messbar ist. Typische Performance-Marketing-Kanäle: Google Ads, Meta Ads, Microsoft Ads, LinkedIn Ads, Affiliate Marketing, SEO, E-Mail-Marketing. Wirtschaftliche Logik: jeder investierte Euro soll mehr als einen Euro Wert zurückbringen — Effizienz vor Reichweite. Wichtig: Performance Marketing ist nicht „besser" als Branding, sondern erfüllt einen anderen Zweck. Reife Marken-Strategien kombinieren beide Disziplinen.
Performance Max ist Googles 2021 eingeführter Kampagnen-Typ, der eine einzelne Kampagne über alle Google-Inventories — Search, Display, YouTube, Discover, Gmail, Maps — automatisiert ausspielt.
PerplexityBot ist der Crawler von Perplexity AI, einer KI-Such-Plattform, die strukturell auf prominente Quellen-Zitation setzt. Während ChatGPT und Google AI Overviews Quellen oft am Rand oder unten platzieren, zeigt Perplexity 6-10 nummerierte Quellen-Links direkt unter jeder Antwort an. Aus SEO-Perspektive ist Perplexity damit die KI-Such-Plattform mit dem höchsten Verweis-Traffic-Potential. Steuerung über Robots.txt mit `User-agent: PerplexityBot`. Blockierung ist strategisch selten sinnvoll — wer in Perplexity sichtbar ist, gewinnt direkten qualifizierten Traffic.
Pillar Content sind besonders umfangreiche, tief recherchierte Inhalte, die ein Thema umfassend behandeln — strategisches Format mit deutlich besserer Sichtbarkeit in klassischer Suche und in KI-Such-Systemen als kurze Standard-Beiträge.
Pre-Rendering ist die Technik, bei der HTML-Versionen einer Single-Page Application vorab server-seitig generiert und in einem Cache bereitgehalten werden. Wenn ein Crawler die Site aufruft, liefert der Pre-Render-Service die vorgerendete HTML-Version statt der leeren SPA-Shell. Echte Nutzer bekommen weiterhin die normale SPA-Version. Tools: Prerender.io, Rendertron, Puppeteer-basierte Eigen-Lösungen. Wirtschaft: günstiger als kompletter Server-Side-Rendering-Umbau (typisch 300-1500 Euro Setup, 30-150 Euro/Monat), aber strukturell schwächer — funktioniert nicht zuverlässig für KI-Such-Systeme und erzeugt zusätzliche Komplexität.
Quality Score ist Googles Bewertung der Qualität einer Google-Ads-Anzeige auf einer Skala von 1 bis 10. Drei Faktoren fließen ein: erwartete Klickrate (CTR), Anzeigenrelevanz zum Suchbegriff, Nutzerfreundlichkeit der Landingpage. Wirtschaftliche Relevanz: höherer Quality Score senkt den effektiven CPC und verbessert den Anzeigenrang — ein Quality-Score-9-Konto zahlt oft 50 Prozent weniger pro Klick als ein Quality-Score-5-Konto in der gleichen Auktion. Hebel zur Verbesserung: präzise Keyword-Anzeige-Landingpage-Kongruenz, klare Conversion-Pfade, schnelle Ladezeiten. Nicht direkt sichtbar in Performance Max-Kampagnen.
Robots.txt ist eine Konfigurationsdatei im Wurzelverzeichnis einer Domain (`/robots.txt`), die Crawler-Zugriffe steuert. Über `User-agent`- und `Disallow`-Direktiven werden einzelne Bots oder Bot-Gruppen vom Zugriff auf bestimmte Pfade ausgeschlossen. Die Befolgung der robots.txt ist freiwillig — seriöse Crawler wie Googlebot, GPTBot oder PerplexityBot halten sich daran, manche aggressivere oder bösartige Bots ignorieren sie. Wichtig: robots.txt verhindert nur Crawling, nicht Indexierung — eine Seite kann trotz Disallow indexiert werden, wenn andere Sites darauf verlinken.
SaaS Trial-Gen ist eine Conversion-Strategie für Software-as-a-Service-Anbieter, bei der das Werbe-Ziel nicht der direkte Verkauf, sondern die Anmeldung zu einem kostenlosen Test-Zugang ist. Charakteristika: niedrige Conversion-Schwelle (oft kein Kreditkarte-Eingabe), längerer nachgelagerter Customer-Activation-Prozess, hohe Anzahl an Trials, von denen typischerweise nur 5-15 Prozent in zahlende Kunden konvertieren. CPA-Steuerung ist anspruchsvoll: zu enge Trial-CPAs führen zu wenig Volumen, zu weite zu zahlreichen unqualifizierten Trials. Strategisch sinnvoll: Trial-CPA mit nachgelagerter Activation-Rate kombinieren und auf „Cost per Activated Trial" optimieren statt nur auf „Cost per Trial".
Schema.org ist das vom Such-Maschinen-Konsortium gepflegte Vokabular für strukturierte Daten auf Websites — das Standard-Framework zur semantischen Auszeichnung von Inhalten für Suchmaschinen und KI-Such-Systeme.
Search Console ist Googles kostenloses Werkzeug für Website-Betreiber zur Beobachtung und Steuerung der organischen Google-Sichtbarkeit. Kern-Funktionen: Performance-Report (Impressionen, Klicks, CTR, durchschnittliche Position pro Suchanfrage und Seite), Indexierungs-Status, technische Crawl-Probleme, Core-Web-Vitals-Daten, manuelle Maßnahmen-Warnungen, Sitemap-Submissions, URL-Inspections-Tool für Echtzeit-Indexierungs-Prüfung. Wichtig: Search Console zeigt nur organische Such-Daten, keine bezahlten Anzeigen. Daten haben typisch 2-3 Tage Verzögerung. Limitierung: anonymisierte Suchanfragen reduzieren das vollständige Bild, was bei Long-Tail-Analyse spürbar wird.
Server-Side Rendering bezeichnet die Architektur, bei der HTML-Inhalte einer Web-Seite server-seitig vorgerendert und an den Browser ausgeliefert werden — zentral für SEO-Sichtbarkeit moderner Web-Apps.
Session Recordings sind Aufzeichnungen tatsächlicher Nutzer-Sitzungen auf einer Webseite — Maus-Bewegungen, Klicks, Scrollverhalten, Eingaben werden mitgeschnitten und können nachträglich abgespielt werden. Tools: Hotjar, Microsoft Clarity, Mouseflow, FullStory, LogRocket. Wert: qualitative Erkenntnis darüber, wo Nutzer hängen, Verständnis-Probleme haben oder unerwartete Pfade nehmen — Daten, die Quant-Analytics nicht liefert. Datenschutz-Hinweis: Session Recordings sind unter DSGVO einwilligungspflichtig (siehe DSGVO-konformes Tracking). Texteingaben in sensiblen Feldern (Passwort, Kreditkarte, persönliche Daten) müssen technisch maskiert werden — die meisten Tools bieten dafür Konfigurations-Optionen.
Eine Single-Page Application ist eine Web-Architektur, bei der die gesamte Anwendung in einer einzigen HTML-Seite läuft und Inhalte clientseitig per JavaScript geladen und gerendert werden.
Smart Bidding bezeichnet die automatisierten Gebots-Strategien in Google Ads, die machine-learning-basiert in Echtzeit Gebote pro Auktion optimieren — im Gegensatz zu manuellen Gebots-Strategien.
Snippet-Tauglichkeit bezeichnet die strukturelle Eigenschaft von Inhalten, in Form kurzer Fragment-Zitate in Suchmaschinen-Antworten, Featured Snippets und KI-generierten Antworten verwendbar zu sein.
Source Bias beschreibt die strukturelle Tendenz von Such- und KI-Systemen, etablierte Quellen — Wikipedia, große Nachrichten-Publisher, autoritative Domains — überproportional häufig zu zitieren. Neue oder kleinere Sites müssen typischerweise 6 bis 12 Monate kontinuierlich substantielle Inhalte produzieren, bevor sie regelmäßig in AI Overviews oder klassischen Suchergebnissen prominent erscheinen. Source Bias ist nicht zu verwechseln mit Qualitäts-Bewertung — er bedeutet, dass etablierte Quellen einen Sichtbarkeits-Vorsprung haben, auch wenn die inhaltliche Substanz vergleichbar oder schwächer ist als bei einer neueren Quelle.
Subscription Linking ist ein Google-Programm, mit dem News-Publisher die Abonnement-Verhältnisse ihrer Leser mit deren Google-Konten verknüpfen. Wenn ein eingeloggter Nutzer eine Suche durchführt und bei einem teilnehmenden Publisher ein Abonnement hat, werden dessen Inhalte in der Google-Suche, in AI Overviews und im AI Mode bevorzugt angezeigt. Die Aktivierung erfolgt über ein Anmelde-Formular bei Google plus technische Markup-Anpassungen (Reader Revenue Manager, schema.org/CreativeWork mit isAccessibleForFree-Property). Praxis-relevant ausschließlich für News-Publisher mit Paywall-Modell — für andere Site-Typen nicht anwendbar.
TanStack Start ist ein modernes Full-Stack-React- Framework mit Server-Side Rendering, type-safe Routing und integriertem Data-Loading — seit dem April-2026-Update die neue Lovable-Standard- Architektur.
Target CPA ist eine Smart-Bidding-Strategie in Google Ads, die Gebote so steuert, dass Conversions im Schnitt zu einem definierten Cost-per-Action-Zielwert erfolgen.
Target ROAS ist eine Smart-Bidding-Strategie in Google Ads, die Gebote so steuert, dass ein definierter Return-on-Ad-Spend-Zielwert erreicht wird — vor allem für E-Commerce-Setups mit unterschiedlichen Conversion-Werten relevant.
UTM-Parameter (Urchin Tracking Module) sind URL-Anhänge, die einer Ziel-URL hinzugefügt werden, um die Quelle eines Besuchers für Web-Analytics-Tools eindeutig zu kennzeichnen. Standard-Parameter: `utm_source` (Quelle, z.B. „newsletter"), `utm_medium` (Medium, z.B. „email"), `utm_campaign` (Kampagne, z.B. „spring-launch"), optional `utm_content` und `utm_term`. Bei Google Ads oft durch Auto-Tagging (`gclid`-Parameter) ersetzt, was tiefere Daten-Verknüpfung erlaubt. Praxis-Disziplin: einheitliche UTM-Naming-Conventions definieren und konsequent einhalten — sonst entstehen in GA4 zerstreute Quellen-Bezeichnungen wie „Newsletter", „newsletter" und „NEWSLETTER" als separate Einträge.
Vite ist ein Build-Tool und Dev-Server für moderne Web-Applikationen, entwickelt vom Vue.js-Schöpfer Evan You, frei und Open-Source. Charakteristisch: extrem schnelles Hot Module Replacement (HMR) in der Entwicklung, weil Vite native ES Modules im Browser nutzt statt Bundles zu erzeugen. Im Produktions-Build wird über Rollup gebündelt. Vite ist Framework-agnostisch — funktioniert mit React, Vue, Svelte, vanilla JS. Verbreitung deutlich gewachsen seit 2021, mittlerweile häufige Standard-Wahl in Frontend-Projekten. Wichtig: Vite alleine produziert eine Single-Page Application mit den damit verbundenen SEO-Einschränkungen.
Eine Vite SPA ist eine Single-Page Application, gebaut mit dem Vite-Build-Tool. Charakteristik: Der Browser lädt initial eine fast leere HTML-Seite plus ein JavaScript-Bundle, das im Browser dann die Inhalte rendert. Vorteil: sehr schnelle Folge-Interaktionen ohne Page-Reloads. Nachteil: bei erster Indexierung sehen Crawler praktisch leere HTML — was zu systematischen SEO-Problemen führt. Bis April 2026 war Vite SPA die Standard-Architektur von Lovable, was viele Lovable-Sites in der Suche unsichtbar machte. Seit dem TanStack-Update wird stattdessen TanStack Start mit Server-Side Rendering verwendet.
Der Werbezeitplaner steuert, zu welchen Tageszeiten und Wochentagen Anzeigen einer Kampagne ausgespielt werden — operativ wichtig für B2B-Setups mit Bürozeiten und Branchen mit klaren Aktivitäts-Mustern.
Die Zero-Click-Mechanik bezeichnet das strukturelle Phänomen, dass Suchanfragen direkt in Featured Snippets oder KI-Antworten beantwortet werden, ohne dass der Nutzer auf eine Quellen-Site klickt.
Wenn Sie zu einer konkreten Performance-, SEO- oder Stack-Frage Substanz suchen — sprechen wir. Wir antworten mit der gleichen Klarheit, mit der wir schreiben.