Od momentu gdy ChatGPT zaczął odpowiadać na pytania zamiast odsyłać do linków, zasady gry zmieniły się fundamentalnie. Firmy, które przez lata inwestowały w klasyczne SEO, budząc się odkrywają, że ich najlepsze strony wcale nie są cytowane przez modele AI. Powstała nowa dyscyplina — Generative Engine Optimization (GEO) — która opisuje jak optymalizować treści pod silniki generatywne.
LLM-SEO vs klasyczne SEO — czym się różni?
Klasyczne SEO optymalizuje stronę pod algorytm Google, żeby zajmowała wysoką pozycję w wynikach wyszukiwania. Użytkownik klika link, trafia na stronę, czyta.
LLM-SEO (lub GEO) optymalizuje stronę pod cytowalność w odpowiedziach AI. Użytkownik pyta ChatGPT “jaki jest najlepszy sposób na pozyskiwanie leadów B2B w 2026”, a model generuje odpowiedź — czasem z przypisami do źródeł, czasem bez. Twoim celem jest, żeby to Twoja strona była w tych przypisach lub żeby model parafrazował Twoje tezy.
Trzy kluczowe różnice:
- Wyszukiwarka vs syntezator — Google pokazuje 10 linków, AI zwraca jedną odpowiedź skonsolidowaną z wielu źródeł.
- CTR vs mention — w SEO liczy się klik; w LLM-SEO liczy się cytat lub parafraza, nawet jeśli użytkownik nigdy nie trafi na Twoją stronę.
- Keywords vs tematy — AI rozumie kontekst semantyczny znacznie lepiej niż keyword matching Google sprzed 10 lat.
Jak modele AI cytują strony?
Każdy model ma swoją logikę. W dużym uproszczeniu:
- ChatGPT (OpenAI) — gdy włączony browsing, GPTBot crawluje sieć i model używa snippetów w odpowiedziach. Bez browsing bazuje na treningu.
- Claude (Anthropic) — podobnie, ClaudeBot crawluje w trybie research. Claude cytuje częściej z treści strukturalnie jasnych (nagłówki, listy, TL;DR na początku).
- Perplexity — agresywnie cytuje, pokazuje linki przy każdym faktycznym twierdzeniu. Jeśli chcesz być cytowany — zacznij tu.
- Google AI Overviews (SGE) — integracja AI z klasycznym SERP-em, cytuje strony z top10 organicznie.
Co konkretnie sprawia że strona jest LLM-friendly?
Kilka technicznych elementów wpływa na widoczność w AI:
- llms.txt — plik opisujący stronę językiem naturalnym, zaprojektowany specjalnie dla LLM. Jak
robots.txt, ale dla AI. (Więcej w osobnym artykule.) - robots.txt — nie zablokuj GPTBot, ClaudeBot ani PerplexityBot, jeśli chcesz być cytowany.
- Schema.org JSON-LD — ustrukturyzowane metadane (Article, FAQPage, HowTo) pomagają modelom zrozumieć kontekst treści.
- Nagłówki H1/H2/H3 — jasna hierarchia daje modelom “mapę” artykułu.
- Cytowalne zdania — krótkie, samodzielne stwierdzenia lepiej nadają się na cytat niż wielolinijkowe akapity.
Struktura treści które AI cytuje chętniej
Analiza odpowiedzi modeli pokazuje wzorce. Strony które są cytowane częściej mają:
- TL;DR lub lead na początku — modele często bazują na pierwszym akapicie.
- Listy numerowane i bullet points — łatwe do ekstrakcji jako kroki.
- Definicje typu “X to Y, ponieważ Z” — wzorzec idealny do cytowania.
- Dane konkretne — liczby, procenty, źródła — AI woli cytować konkrety niż ogólniki.
- FAQ sekcję — pytania brzmiące jak user intent są szczególnie atrakcyjne.
Dlaczego to ma znaczenie dla biznesu?
W ciągu 2-3 lat odpowiedzi AI mogą konsumować do 50% zapytań informacyjnych które dzisiaj trafiają do Google. Jeśli Twoja strona nie jest cytowana przez modele — stajesz się niewidoczny dla coraz większej części rynku.
Co robić:
- Audit widoczności w LLM — sprawdź teraz czy ChatGPT/Claude/Perplexity cytują Twoją domenę dla Twoich kluczowych tematów.
- Wdróż techniczne podstawy — llms.txt, schema.org, otwarte robots.txt dla AI.
- Twórz cytowalne treści — struktura, dane, FAQ.
- Monitoruj regularnie — widoczność w AI zmienia się szybciej niż rankingi Google.
Źródła i dalej
- llmstxt.org — oficjalna specyfikacja llms.txt
- OpenAI GPTBot docs
- Anthropic web crawler docs
- Perplexity Search Docs
W kolejnych artykułach pokażemy krok po kroku jak wdrożyć każdy z tych elementów.