Audytowałem w 2025 roku 40+ stron pod kątem GEO. Te wzorce powtarzają się najczęściej.
JS rendering — największa pułapka
W odróżnieniu od Googlebota (który ma drugi pass renderowania), GPTBot, ClaudeBot i PerplexityBot zazwyczaj nie wykonują JavaScript-u. Jeśli twoja treść pojawia się dopiero po useEffect — dla nich nie istnieje.
Test: curl -A "GPTBot" https://twoja-strona.pl/artykul — czy widzisz pełną treść?
robots.txt dla LLM crawlerów
User-agent: GPTBot
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: CCBot
Disallow: /private/
Google-Extended to osobny token dla AI Overviews — zablokowanie go wyklucza cię z AIO bez wpływu na klasyczne SERP-y.
Core Web Vitals — nadal liczą
LCP, INP, CLS to nadal sygnały rankingu. Co więcej, LLM-y preferują strony szybko ładujące się z czystym HTML — krótszy czas crawlu = więcej stron w korpusie.