Przejdź do treści

Robots.txt - kompletny przewodnik po konfiguracji

Opublikowano: 17 stycznia 2026 | Zaktualizowano: 17 marca 2026

Robots.txt to prosty plik tekstowy, który mówi robotom wyszukiwarek co mogą, a czego nie mogą crawlować na Twojej stronie. Źle skonfigurowany może zablokować indeksowanie całej witryny. Dobrze ustawiony optymalizuje crawl budget.

Krótka odpowiedź

Robots.txt to plik w głównym katalogu strony (domena.pl/robots.txt) kontrolujący dostęp robotów. Używa dyrektyw User-agent, Disallow, Allow i Sitemap. Blokuje crawlowanie, ale nie indeksowanie - do tego służy meta robots noindex.

Usługi KC Mobile

Sprawdź naszą ofertę

Potrzebujesz pomocy specjalisty? Skorzystaj z naszych usług i rozwiń swój biznes online.

Podstawy robots.txt

Plik robots.txt musi znajdować się w głównym katalogu: https://domena.pl/robots.txt

Podstawowe dyrektywy:
- User-agent: - określa którego robota dotyczy reguła (* = wszystkie)
- Disallow: - blokuje dostęp do ścieżki
- Allow: - zezwala na dostęp (nadpisuje Disallow)
- Sitemap: - wskazuje lokalizację sitemap XML

Przykład podstawowy:

User-agent: *
Disallow: /admin/
Disallow: /prywatne/
Allow: /

Sitemap: https://domena.pl/sitemap.xml

Ważne: Robots.txt blokuje crawlowanie, nie indeksowanie. Strona może być zaindeksowana bez crawlowania, jeśli są do niej linki.

Co blokować w robots.txt

Warto blokować:
- Panele administracyjne (/admin/, /wp-admin/)
- Strony logowania i koszyka
- Wyszukiwarkę wewnętrzną (/search/, /?s=)
- Strony filtrów i sortowania
- Duplikaty treści (wersje druku, PDF)
- Staging i środowiska testowe

NIE blokuj:
- CSS i JavaScript (Google potrzebuje do renderowania)
- Obrazów (chyba że celowo)
- Ważnych treści

Częste błędy:
- Blokowanie całej strony: Disallow: /
- Blokowanie zasobów potrzebnych do renderowania
- Zostawienie robots.txt z developmentu (blokuje wszystko)

Sprawdzaj w Google Search Console czy nie blokujesz czegoś ważnego.

Wolisz, żeby zrobił to specjalista?

Oszczędź czas i uniknij błędów. Wdrożymy to rozwiązanie za Ciebie – profesjonalnie i szybko.

Robots.txt vs meta robots noindex

To dwa różne mechanizmy o różnym działaniu:

Robots.txt:
- Blokuje crawlowanie
- Robot nie odwiedza strony
- Strona może być zaindeksowana (z anchor textu linków)
- Dobre dla oszczędzania crawl budget

Meta robots noindex:
- Pozwala crawlować
- Blokuje indeksowanie
- Robot musi odwiedzić stronę, żeby zobaczyć tag
- Dobre dla usuwania stron z indeksu

Kiedy co używać:
- Całe sekcje bez wartości SEO → robots.txt
- Pojedyncze strony do usunięcia z indeksu → noindex
- Strony z prywatnymi danymi → noindex + ewentualnie robots.txt

Uwaga: Nie blokuj w robots.txt strony z noindex - Google nie zobaczy tagu i może zaindeksować stronę.

Testowanie i debugowanie robots.txt

Narzędzia do testowania:
1. Google Search Console → Ustawienia → Narzędzie do testowania robots.txt
2. Bing Webmaster Tools - podobne narzędzie
3. Technicalseo.com/robots-txt-tester

Co sprawdzić:
- Czy ważne strony są dostępne
- Czy blokowane są właściwe sekcje
- Czy sitemap jest poprawnie wskazana
- Czy nie ma literówek w ścieżkach

Debugowanie problemów:
1. Sprawdź czy plik jest dostępny (200 OK)
2. Zweryfikuj składnię
3. Testuj konkretne URL w narzędziu GSC
4. Sprawdź czy nie ma sprzecznych reguł

Dla WordPressa:
Domyślny robots.txt generowany przez WP jest zwykle OK. Yoast SEO pozwala edytować go z poziomu panelu.

Wspomniane narzędzia

Google Search Console Bing Webmaster Tools Yoast SEO

Chcesz więcej ruchu z Google?

Pozycjonujemy strony firmowe i sklepy internetowe. White-hat SEO, comiesięczne raporty. Bez długich umów.

Najczęściej zadawane pytania

Czy robots.txt jest wymagany?
Nie, robots.txt nie jest wymagany. Jesli plik nie istnieje, roboty wyszukiwarek zakładają pelny dostep do calej strony. Jednak dla wiekszosci stron warto go miec – pozwala kontrolowac crawl budget i blokowac nieistotne sekcje. Brak robots.txt nie jest bledem, ale jego obecnosc daje wieksza kontrole nad tym, jak Google przeszukuje Twoja strone.
Czy robots.txt moze zaszkodzic SEO?
Tak, bledna konfiguracja robots.txt moze powaznie zaszkodzic widocznosci w Google. Najgrozniejszy blad to uzycie Disallow z ukosnikiem, ktory blokuje dostep do calej strony. Inne ryzykowne bledy to blokowanie plikow CSS i JavaScript, przez co Google nie moze prawidlowo renderowac strony, oraz blokowanie katalogu uploads, co uniemożliwia indeksowanie obrazow. Zawsze testuj zmiany w Google Search Console przed wdrozeniem na produkcji.
Jak czesto Google pobiera robots.txt?
Google pobiera robots.txt mniej wiecej raz na 24 godziny, ale czestotliwosc moze sie roznic. Dla duzych, czesto aktualizowanych stron moze to byc czesciej. Po zmianie pliku sprawdz w Google Search Console (Ustawienia > robots.txt) date ostatniego pobrania. Mozesz tez poprosic o ponowne pobranie. Pamietaj, ze zmiana nie dziala natychmiast – daj Google czas na aktualizacje.
Czy robots.txt zastepuje meta noindex?
Nie, to dwa rozne mechanizmy. Robots.txt blokuje crawlowanie (robot nie odwiedza strony), meta noindex blokuje indeksowanie (robot odwiedza strone, ale nie dodaje jej do indeksu). Wazne: jesli zablokujesz strone w robots.txt, Google nie zobaczy tagu noindex, wiec moze zaindeksowac URL na podstawie linkow zewnetrznych. Do pelnej kontroli uzyj noindex bez blokady w robots.txt.
Jak zablokowac konkretnego bota w robots.txt?
Uzyj dyrektywy User-agent z dokladna nazwa bota, a nastepnie odpowiednia regule Disallow. Przyklad: User-agent AhrefsBot, Disallow ukosnik – zablokuje bota Ahrefs na calej stronie. Popularne boty czesto blokowane to SemrushBot, MJ12bot i DotBot. Nigdy nie blokuj Googlebot ani Bingbot, jesli chcesz zachowac widocznosc w wyszukiwarkach. Pelna liste nazw botow znajdziesz na robotstxt.org oraz w logach serwera.
#robots-txt#crawlowanie#technical-seo#indeksowanie#konfiguracja
Zdjęcie autora: Krzysztof Czapnik
O autorze

Krzysztof Czapnik

CEO KC Mobile

20+ lat doświadczenia w digital marketingu i tworzeniu stron internetowych. Specjalizuję się w SEO, kampaniach Google Ads oraz budowaniu skutecznych strategii online dla firm z całej Polski.

Potrzebujesz pomocy?

Wolisz, żeby zrobił to specjalista?

Oszczędź czas i uniknij błędów. Wdrożymy to rozwiązanie za Ciebie – profesjonalnie i szybko.

Bezpłatna wycena