Casebook (wyniki) — „z odpowiedzi do efektów”
Tu pokazujemy twarde dowody: zrzuty cytowań w Google AI Overviews/AI Mode, Bing Copilot, Perplexity, ChatGPT/Gemini, przykłady Answer Packów oraz krótkie porównania „przed/po”. Każdy case opisujemy w jednym, spójnym formacie, aby był łatwy do zweryfikowania i zacytowania przez silniki AI.
Jak czytać Casebook
- Zrzuty cytowań: screen z odpowiedzi AI z podświetlonym wskazaniem źródła (Twoja domena).
- Answer Pack: jak przebudowaliśmy stronę: Pytanie → Zwięzła odpowiedź (2–4 zdania) → Evidence/Źródła → FAQ + Schema.
- „Przed/po”: co było (treść/UX/DOM), co zmieniliśmy, jaki wynik.
- KPI: Citations/Share of Answer, AIO Presence, LLM Traffic, Agent-Completion Readiness.
Filtry
- Branża: e-commerce, SaaS, B2B usługi, finanse, edukacja, travel…
- Typ zapytań: informacyjne, porównawcze, transakcyjne, lokalne, how-to.
- Kanał AI: AI Overviews/AI Mode, Copilot, Perplexity, ChatGPT/Gemini.
Wybierz filtry, żeby zobaczyć tylko istotne dla Ciebie przypadki.
Format każdego case’u
Problem → Odpowiedź → Evidence → Efekt (KPI)
Poniżej przykłady (zanonimizowane). Każdy realny case na stronie będzie miał zrzut ekranu i link do wdrożonego Answer Packa.
Case #1 — E-commerce (porównawcze, AIO + Perplexity)
Problem
Utrata klików na frazach porównawczych po wejściu AI Overviews; brak wzmianki marki w odpowiedziach AI.
Odpowiedź (co zrobiliśmy)
- Przebudowa kategorii do formatu Q→A→Evidence→FAQ + Schema (Product/FAQPage).
- Dodanie sekcji Źródła (parametry, testy, regulaminy), aktualizacja biosów autorów (Author).
- Publikacja Answer Packów na long-tail (np. „X vs Y do [zastosowanie]”).
Evidence (dowody)
- Zrzut: Perplexity cytuje naszą domenę w odpowiedzi porównawczej.
- Zrzut: AI Overviews wskazuje fragment z sekcji „Summary/Key facts”.
Efekt (KPI)
- Citations Rate (per frazy porównawcze): +38% w 6 tygodni.
- AIO Presence: z 0 do 8 tematów w klastrze.
- LLM Traffic: +19% wejść przypisanych do answer engines (obserwacja).
Case #2 — B2B SaaS (informacyjne, Copilot + ChatGPT)
Problem
Brak ekspozycji w odpowiedziach Copilota; treści eksperckie rozproszone, bez krótkich definicji.
Odpowiedź
- Stworzyliśmy hub definicji (glossary) z krótkimi wprowadzeniami (2–4 zdania) i sekcjami Evidence.
- Dodaliśmy llms.txt z 20 URL-ami „kanonicznymi” dla modeli.
- Uporządkowaliśmy nagłówki i linkowanie wewnętrzne.
Evidence
- Zrzut: Copilot przywołuje naszą definicję jako źródło.
- Walidacja llms.txt i coverage w sitemapach.
Efekt (KPI)
- Share of Answer (definicje): +27 p.p. w 30 dni.
- Lead gen z ruchu AI: +11% zapytań demo (po wdrożeniu CTA na hubie).
Case #3 — Usługi lokalne (lokalne, AIO)
Problem
Zapytania lokalne zawężone przez AI Mode; brak wyróżnienia polityk i danych kontaktowych.
Odpowiedź
- Dodaliśmy blok „Answer” na stronie usługi i sekcję „Evidence/Polityki” (cennik, SLA, RODO, adresy).
- Schema: Organization/LocalBusiness, FAQPage.
- Ułatwiliśmy agentom akcję: CTA „Umów termin”, prosty formularz (parsowalny DOM).
Evidence
- Zrzut: AI Overviews w wynikach lokalnych linkuje sekcję z polityką i godzinami.
Efekt (KPI)
- AIO Presence (lokalnie): z 1 do 6 fraz.
- Agent-Completion Readiness: test ścieżki „Umów” — 3 kroki → 2 kroki.
Case #4 — Marketplace (transakcyjne, Perplexity)
Problem
Perplexity rekomendował konkurencję; nasze opisy były zbyt marketingowe, bez weryfikowalnych danych.
Odpowiedź
- Zastąpiliśmy „marketing speak” spisem parametrów i źródłami (normy, certyfikaty, testy).
- Dodaliśmy porównania tabelaryczne i odsyłacze do dokumentacji.
Evidence
- Zrzut: odpowiedź Perplexity z cytatem do tabeli parametrów.
Efekt (KPI)
- Citations Rate: +44% w 8 tygodni (klaster transakcyjny).
- Wzrost CR na kartach o 0,9 p.p. (przypisanie: mixed, obserwacja).
Answer Pack — wzór (stosowany w case’ach)
Pytanie (H1/H2): Jak wybrać [produkt/usługę] do [zastosowanie]?
Odpowiedź (2–4 zdania): krótka, neutralna, użyteczna.
Evidence/Źródła: liczby, normy, linki do wiarygodnych materiałów.
FAQ: 3–5 pytań z odpowiedziami 1–3 zdaniowymi.
Schema: FAQPage/HowTo/Product/Author/Organization.
CTA (agent-friendly): „Kup/Zarezerwuj/Umów” — proste, jednoznaczne.
Jak weryfikujemy efekty
- Citations/Share of Answer: cykliczne testy zapytań + zrzuty jako dowód.
- AIO Presence: lista tematów, gdzie AI Overviews pokazuje naszą treść.
- LLM Traffic: obserwacje wejść i zapytań z interfejsów AI (jako wskaźnik pomocniczy).
- Agent-Readiness: testy „proof-of-flow” (ile kroków do akcji, czytelność CTA/polityk).
FAQ (Casebook)
Czy pokażecie nazwy zapytań i pełne adresy URL?
Tak, w case’ach z zgodą klienta. W pozostałych — anonimizujemy dane, zostawiamy zrzuty cytowań.
Jak długo trwa dojście do pierwszych cytowań?
Najczęściej 4–8 tygodni dla wąsko zdefiniowanych klastrów (po wdrożeniu Answer Packów i schema).
Czy mogę dodać własny case?
Tak — wypełnij formularz z tematami i dostaniesz wskazówki co do zrzutów/metryk.
CTA: Wejdź do świata AI
Chcesz sprawdzić, gdzie już pojawiasz się w odpowiedziach AI? Zamów mini-audyt AI-Visibility (bezpłatnie) — w 30 dni wdrożymy pierwsze Answer Packs.
Skontaktuj się z nami:
📧 kontakt@geoknows.pl | 🌍 GEOknows.pl
📄 Zamów audyt obecności w AI
Odwiedź: GEOknows.pl | SalesBot.pl | IntegratorAI.pl
