Przejdź do treści

Analiza logów serwera dla SEO - jak monitorować crawlowanie

Opublikowano: 17 stycznia 2026

Logi serwera to kopalnia wiedzy o tym, jak Google faktycznie crawluje Twoją stronę. W przeciwieństwie do Search Console, pokazują każdą wizytę Googlebota - także nieudane, przekierowania i zablokowane. Poznaj jak analizować logi dla lepszego SEO.

Krótka odpowiedź

Analiza logów serwera pokazuje rzeczywiste zachowanie Googlebot: które strony crawluje, jak często, jakie błędy napotyka. Narzędzia: Screaming Frog Log Analyzer, Oncrawl, Botify. Kluczowe metryki: crawl frequency, status codes, response time, crawl budget waste. Wymagane: dostęp do raw server logs.

Dlaczego analizować logi serwera

Co Search Console NIE pokazuje:
- Strony zablokowane w robots.txt (crawlowane, ale nie parsowane)
- Nieistniejące strony (404) które Google próbuje crawlować
- Dokładna częstotliwość crawlowania każdej strony
- Response time dla Googlebota
- Przekierowania widoczne przez bota

Co logi pokazują:
- Każde request Googlebot (nie tylko sukces)
- Timestamp - kiedy dokładnie crawluje
- Status code - 200, 301, 404, 500
- Response time - jak szybko serwer odpowiada
- User-Agent - który bot (Desktop, Mobile, Images)

Kiedy analiza logów jest szczególnie ważna:
- Duże strony (10k+ URL-i)
- Problemy z indeksacją
- Po migracji lub redesignie
- E-commerce z wieloma produktami
- Strony z dynamic rendering

Jak pozyskać i przygotować logi

Źródła logów:
- cPanel/Plesk: sekcja Raw Access Logs
- Apache: /var/log/apache2/access.log
- Nginx: /var/log/nginx/access.log
- Cloudflare: Enterprise plan lub Workers
- CDN/WAF: Często mają własne logi

Format logów (Combined Log Format):
```
66.249.66.1 - - [10/Jan/2026:12:00:00 +0000] "GET /page.html HTTP/1.1" 200 5432 "-" "Googlebot/2.1"
```
- IP, data, request, status, size, user-agent

Filtrowanie Googlebot:
Szukaj User-Agent zawierającego:
- Googlebot
- Googlebot-Mobile
- Googlebot-Image
- Googlebot-Video
- AdsBot-Google

Uwaga na fake Googlebot:
Weryfikuj IP - prawdziwy Googlebot pochodzi z sieci Google (66.249.x.x, 64.233.x.x). Fake boty mają inne IP.

Okres danych:
- Minimum 30 dni dla analizy
- Idealne: 3-6 miesięcy
- Im więcej danych, tym lepsze wnioski

Kluczowe metryki do analizy

1. Crawl frequency per URL:
- Jak często każda strona jest crawlowana
- Ważne strony powinny być częściej
- Strony uncrawled przez 90+ dni = problem

2. Status codes:
- 200: OK
- 301/302: Przekierowania (czy za dużo?)
- 404: Nie znaleziono (skąd Google zna te URL-e?)
- 500: Błędy serwera (krytyczne!)

3. Response time:
- Czas odpowiedzi dla Googlebot
- >500ms = wolno, może wpływać na crawl rate
- Porównaj z response time dla użytkowników

4. Crawl budget waste:
- Ile requestów na strony nieindeksowane (noindex, redirect, 404)
- Ile na parametry URL, filtry, duplikaty
- Procent wartościowego crawlowania

5. Fresh content crawling:
- Czy nowe strony są szybko odkrywane
- Czas od publikacji do pierwszego crawla

6. Googlebot Desktop vs Mobile:
- Który bot częściej odwiedza
- Mobile-first: Mobile powinien dominować

Narzędzia do analizy logów

Screaming Frog Log File Analyser:
- Desktop app, jednorazowy koszt
- Import logów, filtrowanie botów
- Raporty: crawl frequency, status codes, orphan pages
- Integracja z crawlem SF

Oncrawl:
- Cloud-based, SaaS
- Zaawansowana analiza i segmentacja
- Historyczne porównania
- Droższe, dla dużych stron

Botify:
- Enterprise-level
- Real-time log analysis
- Integracja z crawlami i Search Console
- Najdroższe, dla mega-sites

JetOctopus:
- Dobry balans cena/funkcje
- Logs + crawl + GSC w jednym
- Alerting

DIY (dla zaawansowanych):
- ELK Stack (Elasticsearch, Logstash, Kibana)
- Python + pandas
- Google BigQuery dla dużych wolumenów

Co analizować:
1. Które strony nigdy nie są crawlowane
2. Które strony są over-crawled (marnują budżet)
3. Błędy 4xx i 5xx
4. Łańcuchy przekierowań
5. Response time spikes

Wspomniane narzędzia

Screaming Frog Log Analyzer Oncrawl Botify JetOctopus

Najczęściej zadawane pytania

Czy analiza logów jest konieczna dla każdej strony?
Nie dla małych stron (<1000 podstron). Search Console wystarcza. Dla dużych e-commerce, portali z tysiącami stron lub przy problemach z indeksacją - analiza logów jest bardzo wartościowa.
Jak często analizować logi?
Dla bieżącego monitoringu: automatyczne alerty na błędy 5xx, spadki crawl rate. Pełna analiza: po każdej większej zmianie (migracja, redesign) lub co kwartał dla dużych stron.
#log-analysis#googlebot#crawlowanie#technical-seo#server-logs
Zdjęcie autora: Krzysztof Czapnik
O autorze

Krzysztof Czapnik

CEO KC Mobile

20+ lat doświadczenia w digital marketingu i tworzeniu stron internetowych. Specjalizuję się w SEO, kampaniach Google Ads oraz budowaniu skutecznych strategii online dla firm z całej Polski.

Chcesz być wyżej w Google?

Pozycjonujemy strony z gwarancją wzrostu widoczności. Cennik od 1500 zł/mies.

Potrzebujesz pomocy specjalisty?

Skorzystaj z naszych usług w największych miastach Polski

Bezpłatna wycena Zadzwoń