Przejdź do treści

Google Search Console API - automatyzacja raportów i analiz SEO

Opublikowano: 17 stycznia 2026 | Zaktualizowano: 17 marca 2026

Google Search Console to kopalnia danych SEO -- klikniecia, wyswietlenia, pozycje, status indeksowania. Problem? Interfejs webowy pokazuje maksymalnie 1000 fraz, przechowuje dane przez 16 miesiecy i nie pozwala na automatyzacje. API rozwiazuje wszystkie te ograniczenia. Mozesz pobierac pelne dane programowo, budowac wlasne dashboardy, ustawiac alerty na spadki pozycji i -- co najwazniejsze -- przechowywac dane historyczne dluzej niz Google.

Krótka odpowiedź

Google Search Console API pozwala programowo pobierac dane o kliknieciach, wyswietleniach, CTR i pozycjach (Search Analytics API) oraz sprawdzac status indeksowania URL-i (URL Inspection API). Jest darmowe. Do konfiguracji potrzebujesz projektu w Google Cloud Console i Service Account.

Limity: 25 000 wierszy per request (Search Analytics), 2000 requestow dziennie (URL Inspection). Alternatywy no-code: Looker Studio, Search Analytics for Sheets.

Usługi KC Mobile

Sprawdź naszą ofertę

Potrzebujesz pomocy specjalisty? Skorzystaj z naszych usług i rozwiń swój biznes online.

Co oferuje Google Search Console API?

GSC API sklada sie z trzech glownych endpointow. Kazdy rozwiazuje inny problem:

Search Analytics API -- dane o wydajnosci organicznej. Klikniecia, wyswietlenia, CTR, srednia pozycja. Mozesz filtrowac po stronie, frazie, kraju, urzadzeniu i typie wyszukiwania. Maximum 25 000 wierszy per request (vs 1000 w interfejsie webowym). Dane siagaja 16 miesiecy wstecz z opoznieniem 2-3 dni.

URL Inspection API -- status indeksowania konkretnych URL-i. Czy strona jest zaindeksowana? Kiedy ostatnio crawlowana? Czy przeszla testy mobile usability i rich results? Limit: 2000 requestow dziennie na wlasciwosc. Idealne do bulk audytu indeksacji.

Sitemaps API -- zarzadzanie mapami witryn. Lista sitemap, statusy, bledy, data ostatniego crawla. Przydatne do monitorowania czy Google widzi wszystkie Twoje strony.

Czego API nie daje: danych w czasie rzeczywistym (opoznienie 2-3 dni), danych starszych niz 16 miesiecy, pelnego Index Coverage Report i danych o Core Web Vitals (do tego potrzebujesz PageSpeed Insights API).

Jesli dopiero zaczynasz z GSC, sprawdz nasz przewodnik po Google Search Console -- podstawy, ktore przydadza sie zanim zaczniesz automatyzowac.

Konfiguracja dostepu krok po kroku

Uzyskanie dostepu do API wymaga trzech krokow:

Krok 1: Google Cloud Console -- przejdz do console.cloud.google.com, utworz nowy projekt i wlacz "Google Search Console API" w bibliotece API.

Krok 2: Service Account -- dla automatyzacji stwórz Service Account (nie OAuth). Pobierz plik JSON z kluczem prywatnym. Dodaj email Service Account jako uzytkownika w GSC (prawo do odczytu wystarczy).

Krok 3: Python quickstart -- zainstaluj biblioteki:

pip install google-auth google-api-python-client pandas

Podstawowy snippet pobierajacy dane o frazach:

from google.oauth2 import service_account
from googleapiclient.discovery import build

credentials = service_account.Credentials.from_service_account_file(
    'credentials.json',
    scopes=['https://www.googleapis.com/auth/webmasters.readonly']
)
service = build('searchconsole', 'v1', credentials=credentials)

response = service.searchanalytics().query(
    siteUrl='https://twoja-strona.pl',
    body={
        'startDate': '2026-01-01',
        'endDate': '2026-03-01',
        'dimensions': ['query', 'page'],
        'rowLimit': 25000
    }
).execute()

Nie programujesz? Sa alternatywy no-code:
- Looker Studio -- natywny connector do GSC, drag-and-drop dashboardy
- Search Analytics for Sheets -- darmowy addon do Google Sheets od Google
- Supermetrics -- platny, ale laczy GSC z dziesiątkami narzedzi

Wiecej o narzedziach technical SEO -- nie tylko API, ale pelny ekosystem.

Wolisz, żeby zrobił to specjalista?

Oszczędź czas i uniknij błędów. Wdrożymy to rozwiązanie za Ciebie – profesjonalnie i szybko.

Praktyczne zastosowania -- co automatyzowac?

API to narzedzie. Wartosciowe staje sie dopiero wtedy, gdy rozwiazuje konkretny problem biznesowy:

Automatyczne raporty tygodniowe -- skrypt pobiera dane z GSC, porownuje z poprzednim tygodniem, generuje raport i wysyla na email lub Slack. Zamiast 30 minut recznego eksportu -- 0 minut, bo wszystko dziala na cron.

Alerty na spadki pozycji -- monitoruj 50-100 kluczowych fraz. Jesli srednia pozycja spada o wiecej niz 3 pozycje w tydzien -- alert na Slack. Reaguj zanim ruch zniknie.

Analiza low-hanging fruit -- pobierz frazy na pozycjach 5-15 z wysokimi wyswietleniami i niskim CTR. To strony, ktore wystarczy zoptymalizowac (meta title, description) zeby zdobyc wiecej klikniec bez tworzenia nowego contentu.

Bulk URL Inspection -- sprawdz status indeksacji setek lub tysiecy URL-i jednym skryptem. Przydatne po migracji, po duzych zmianach na stronie lub regularnie jako audyt indeksacji.

Integracja z GA4 -- polacz dane GSC (frazy, pozycje) z danymi GA4 (konwersje, revenue). Dowiesz sie, ktore frazy organiczne generuja sprzedaz, nie tylko ruch.

Przechowywanie danych historycznych -- to kluczowe. GSC trzyma dane przez 16 miesiecy. Po tym czasie -- znikaja bezpowrotnie. Eksportuj regularnie do BigQuery, PostgreSQL lub nawet Google Sheets. To jedyny sposob na pelna historie SEO Twojej strony.

Potrzebujesz profesjonalnej analityki SEO i raportowania? Sprawdz nasza oferte pozycjonowania -- wdrazamy systemy monitoringu, ktore dzialaja za Ciebie.

Limity API i best practices

Kazde API ma ograniczenia. Znajomosc limitow pozwala ich unikac:

Search Analytics API:
- 1200 queries na minute per uzytkownik
- Maximum 25 000 wierszy per request
- Dane z opoznieniem 2-3 dni
- Paginacja: uzyj parametru `startRow` zeby pobrac wiecej niz 25k wierszy

URL Inspection API:
- 2000 requestow dziennie per wlasciwosc (property)
- Brak batch endpoint -- kazdy URL wymaga osobnego requestu
- Tip: uzyj `ThreadPoolExecutor` w Pythonie do rownoleglych requestow (ale zachowaj limit)

Sitemaps API:
- 1200 queries na minute
- Zwraca dane o statusie, bledach i ostatnim crawlu

Obsluga bledow:
- 429 (Too Many Requests) -- exponential backoff: czekaj 1s, 2s, 4s, 8s...
- 401 (Unauthorized) -- odswierz token lub sprawdz uprawnienia Service Account
- 403 (Forbidden) -- poczekaj lub sprawdz limity projektu w Cloud Console

Best practices:
- Cachuj wyniki -- nie odpytuj API wielokrotnie o te same dane
- Agreguj dane po stronie klienta, nie w API (mniej requestow)
- Uzyj biblioteki `google-searchconsole` (Python wrapper) -- upraszcza skladnie
- Przechowuj dane lokalnie -- GSC kasuje po 16 miesiacach

Narzedzia i biblioteki

Ekosystem wokol GSC API jest zaskakujaco bogaty:

Python:
- `google-searchconsole` -- wrapper, ktory upraszcza zapytania do jednej linijki
- `googleapiclient` -- oficjalna biblioteka Google (bardziej verbose, ale pelna kontrola)
- `pandas` -- do obrobki i analizy pobranych danych
- `schedule` lub `cron` -- do cyklicznego uruchamiania skryptow

R:
- `searchConsoleR` -- pakiet do pobierania danych GSC w R
- Dobra opcja dla analitykow preferujacych R nad Python

No-code:
- Search Analytics for Sheets -- darmowy addon Google, idealny na start
- Screaming Frog -- ma wbudowana integracje z GSC (import danych o frazach)
- Looker Studio -- natywny connector, drag-and-drop dashboardy bez kodowania

Warto tez sprawdzic bledy w Google Search Console -- API pomoze je wykryc automatycznie, ale musisz wiedziec czego szukac.

Wspomniane narzędzia

Google Search Console API Google Cloud Console Looker Studio Python BigQuery

Chcesz więcej ruchu z Google?

Pozycjonujemy strony firmowe i sklepy internetowe. White-hat SEO, comiesięczne raporty. Bez długich umów.

Najczęściej zadawane pytania

Czy moge pobrac wiecej niz 1000 fraz z GSC API?
Tak -- limit per request to 25 000 wierszy, nie 1000 jak w interfejsie webowym. Uzyj parametru `rowLimit` i `startRow` do paginacji. Przez wielokrotne requesty pobierzesz wszystkie frazy nawet dla duzych stron z milionami zapytan w Google.
Jak czesto dane sa aktualizowane w GSC API?
Dane maja opoznienie 2-3 dni -- identyczne jak w interfejsie webowym GSC. Dane za "wczoraj" nie sa jeszcze dostepne. Do monitoringu pozycji w czasie rzeczywistym potrzebujesz osobnych narzedzi do rank trackingu (np. Senuto, Semrush, Ahrefs). API nie oferuje danych real-time.
Czy Google Search Console API jest darmowe?
Tak. Samo API jest calkowicie bezplatne -- nie platisz za zapytania ani za dane. Jedyne koszty to infrastruktura: serwer do uruchamiania skryptow i baza danych do przechowywania danych historycznych. Limity API sa wystarczajace nawet dla duzych stron z tysiacami podstron.
Czy potrzebuje umiec programowac zeby korzystac z GSC API?
Nie koniecznie. Alternatywy no-code to Looker Studio (natywny connector, dashboardy drag-and-drop), Search Analytics for Sheets (darmowy addon Google do arkuszy) i Supermetrics (platny, laczy GSC z wieloma narzedziami). Python daje najwiecej mozliwosci i elastycznosci, ale na start nie jest wymagany.
Jak dlugo GSC przechowuje dane historyczne?
Google Search Console przechowuje dane przez 16 miesiecy. Po tym czasie dane znikaja bezpowrotnie -- nie odzyskasz ich. Dlatego warto regularnie eksportowac dane do wlasnej bazy: BigQuery, PostgreSQL, lub nawet Google Sheets. To jedyny sposob na pelna historie SEO Twojej strony ponad okres 16 miesiecy.
#search-console-api#automatyzacja#raportowanie#api#dane-seo
Zdjęcie autora: Krzysztof Czapnik
O autorze

Krzysztof Czapnik

CEO KC Mobile

20+ lat doświadczenia w digital marketingu i tworzeniu stron internetowych. Specjalizuję się w SEO, kampaniach Google Ads oraz budowaniu skutecznych strategii online dla firm z całej Polski.

Potrzebujesz pomocy?

Wolisz, żeby zrobił to specjalista?

Oszczędź czas i uniknij błędów. Wdrożymy to rozwiązanie za Ciebie – profesjonalnie i szybko.

Bezpłatna wycena