Wichtige Begriffe rund um KI, GEO und Reputationsanalyse – verständlich erklärt.
KI-generierte Zusammenfassungen in der Google-Suche. Relevanz: Sie prägen Wahrnehmung, bevor jemand auf Websites klickt.
System, das Antworten direkt generiert (statt nur Links zu liefern), z. B. Chatbots oder generative Suchfunktionen.
Zuordnung: Welche Quelle stützt welche Aussage (explizit durch Zitat/Link oder indirekt durch inhaltliche Übereinstimmung).
Systematische Schieflage in KI-Antworten, z. B. durch einseitige Quellen, fehlende Perspektiven, Prompt-Formulierung oder Ranking-Effekte.
Explizite Quellenangabe (Link/Domain) in einer KI-Antwort. Wichtig für Prüfbarkeit – aber nicht automatisch ein Qualitätsbeweis.
Inhaltliche Lücke: Themen, Argumente oder Fakten, die Nutzer erwarten, die aber in KI-Antworten fehlen oder untergehen.
Strukturierter Datensatz hinter dem Report. Vorteil: Ergebnisse sind intern weiterverwendbar und bei Bedarf überprüfbar.
Was sich zwischen zwei Zeitpunkten verändert (Aussagen, Quellen, Narrative). Grundlage für Monitoring.
Eine Website/Domain, die als Quelle in Antworten auftaucht und Narrative mitprägt.
Vektor-Repräsentationen von Texten, mit denen semantische Ähnlichkeit gemessen werden kann (z. B. für Clustering oder Retrieval).
Eindeutige 'Dinge' wie Marke, Produkt, Person, Ort. Entitäts-Erkennung hilft, Aussagen korrekt zuzuordnen.
Wie ein Thema sprachlich eingeordnet wird (z. B. 'preiswert', 'sicher', 'innovativ', 'riskant'). Frames steuern Wahrnehmung oft stärker als Einzelfakten.
Massnahmen, damit Marken und Inhalte in generativen Antworten korrekter, konsistenter und sichtbarer dargestellt werden (nicht identisch mit klassischem SEO).
Antworten werden an konkrete Inhalte/Quellen gebunden, statt nur 'aus dem Modell heraus' zu generieren. Ziel: weniger Halluzination, mehr Prüfbarkeit.
Plausibel klingende, aber falsche oder unbelegte Aussage in einer KI-Antwort.
Menge an Text, die ein Modell pro Anfrage berücksichtigen kann (Prompt, Verlauf, eingefügte Inhalte). Relevanz: Wichtiges kann schlicht nicht 'hineinpassen'.
Zeitpunkt, bis zu dem ein Modell ohne externe Quellen typischerweise trainiertes Wissen hat. Danach steigt das Risiko veralteter Aussagen (wenn kein Retrieval genutzt wird).
Sprachmodell, das Texte generiert, zusammenfasst und argumentiert.
Systematisches Erfassen, wie Modelle über eine Marke/Thema sprechen (Aussagen, Quellen, Narrative) – als Basis für Analyse und Steuerung.
Datei im Pfad /llms.txt, die wichtige Website-Inhalte strukturiert bereitstellt, damit KI-Systeme Inhalte leichter erfassen und korrekt einordnen können.
Wiederholte Messung über Zeit, um Deltas/Trends sichtbar zu machen und Wirkung von Massnahmen zu überprüfen.
Wiederkehrendes Deutungsmuster über eine Marke oder ein Thema (z. B. 'zu teuer', 'unsicher', 'Premium und zuverlässig').
Eingabe/Frage an ein Modell. Prompts beeinflussen Antworten stark und sind zentral für vergleichbare Messungen.
Bündel abgestimmter Prompts, das reale Use-Cases abbildet (Kundenfragen, Wettbewerbsvergleiche, kritische Themen). Grundlage für belastbare Ergebnisse.
Muster, nach denen Quellen in KI-Antworten dominieren: welche Domains häufig auftauchen, wie divers die Quellen sind und welche Quelle welche Aussage stützt.
Wie breit oder konzentriert das Quellenfeld ist. Niedrige Diversität erhöht das Risiko einseitiger Narrative.
Ansatz, bei dem ein Modell vor dem Antworten passende Dokumente abruft und in die Antwort einbezieht (statt nur mit internem Modellwissen zu arbeiten).
Mechanismen, die bestimmen, welche Inhalte/Quellen in der Antwort stärker erscheinen. Kann dazu führen, dass wenige Quellen 'alles' prägen.
Markup-Standard, um Inhalte maschinenlesbar zu kennzeichnen (z. B. Organisation, Artikel, FAQ). Unterstützt Einordnung und Auffindbarkeit.
Festgelegter Rahmen einer Analyse: Prompts, Modelle, Sprache/Land, Zeitraum, Vergleichslogik.
Parameter, der steuert, wie variabel Antworten ausfallen. Höher = variabler, niedriger = konsistenter.
Texteinheiten, mit denen Modelle rechnen. Relevant für Länge, Kosten und Kontextfenster.
Fähigkeit, Erkenntnisse sauber auf Aussagen, Quellen und Datenpunkte zurückzuführen.
Konkreter Anwendungsfall (z. B. 'Vergleich', 'Sicherheit', 'Preis/Leistung', 'Migration'). Use-Cases strukturieren Prompt-Set und Auswertung.
Semantische Suche über Embeddings, häufig in Retrieval-Systemen. Relevanz: beeinflusst, welche Inhalte als Grundlage in Antworten gelangen.