Google Search Console to kopalnia danych SEO -- klikniecia, wyswietlenia, pozycje, status indeksowania. Problem? Interfejs webowy pokazuje maksymalnie 1000 fraz, przechowuje dane przez 16 miesiecy i nie pozwala na automatyzacje. API rozwiazuje wszystkie te ograniczenia. Mozesz pobierac pelne dane programowo, budowac wlasne dashboardy, ustawiac alerty na spadki pozycji i -- co najwazniejsze -- przechowywac dane historyczne dluzej niz Google.
Krótka odpowiedź
Google Search Console API pozwala programowo pobierac dane o kliknieciach, wyswietleniach, CTR i pozycjach (Search Analytics API) oraz sprawdzac status indeksowania URL-i (URL Inspection API). Jest darmowe. Do konfiguracji potrzebujesz projektu w Google Cloud Console i Service Account.
Limity: 25 000 wierszy per request (Search Analytics), 2000 requestow dziennie (URL Inspection). Alternatywy no-code: Looker Studio, Search Analytics for Sheets.
Usługi KC Mobile
Sprawdź naszą ofertę
Potrzebujesz pomocy specjalisty? Skorzystaj z naszych usług i rozwiń swój biznes online.
Co oferuje Google Search Console API?
GSC API sklada sie z trzech glownych endpointow. Kazdy rozwiazuje inny problem:
Search Analytics API -- dane o wydajnosci organicznej. Klikniecia, wyswietlenia, CTR, srednia pozycja. Mozesz filtrowac po stronie, frazie, kraju, urzadzeniu i typie wyszukiwania. Maximum 25 000 wierszy per request (vs 1000 w interfejsie webowym). Dane siagaja 16 miesiecy wstecz z opoznieniem 2-3 dni.
URL Inspection API -- status indeksowania konkretnych URL-i. Czy strona jest zaindeksowana? Kiedy ostatnio crawlowana? Czy przeszla testy mobile usability i rich results? Limit: 2000 requestow dziennie na wlasciwosc. Idealne do bulk audytu indeksacji.
Sitemaps API -- zarzadzanie mapami witryn. Lista sitemap, statusy, bledy, data ostatniego crawla. Przydatne do monitorowania czy Google widzi wszystkie Twoje strony.
Czego API nie daje: danych w czasie rzeczywistym (opoznienie 2-3 dni), danych starszych niz 16 miesiecy, pelnego Index Coverage Report i danych o Core Web Vitals (do tego potrzebujesz PageSpeed Insights API).
Jesli dopiero zaczynasz z GSC, sprawdz nasz przewodnik po Google Search Console -- podstawy, ktore przydadza sie zanim zaczniesz automatyzowac.
Konfiguracja dostepu krok po kroku
Uzyskanie dostepu do API wymaga trzech krokow:
Krok 1: Google Cloud Console -- przejdz do console.cloud.google.com, utworz nowy projekt i wlacz "Google Search Console API" w bibliotece API.
Krok 2: Service Account -- dla automatyzacji stwórz Service Account (nie OAuth). Pobierz plik JSON z kluczem prywatnym. Dodaj email Service Account jako uzytkownika w GSC (prawo do odczytu wystarczy).
Krok 3: Python quickstart -- zainstaluj biblioteki:
pip install google-auth google-api-python-client pandasPodstawowy snippet pobierajacy dane o frazach:
from google.oauth2 import service_account
from googleapiclient.discovery import build
credentials = service_account.Credentials.from_service_account_file(
'credentials.json',
scopes=['https://www.googleapis.com/auth/webmasters.readonly']
)
service = build('searchconsole', 'v1', credentials=credentials)
response = service.searchanalytics().query(
siteUrl='https://twoja-strona.pl',
body={
'startDate': '2026-01-01',
'endDate': '2026-03-01',
'dimensions': ['query', 'page'],
'rowLimit': 25000
}
).execute()Nie programujesz? Sa alternatywy no-code:
- Looker Studio -- natywny connector do GSC, drag-and-drop dashboardy
- Search Analytics for Sheets -- darmowy addon do Google Sheets od Google
- Supermetrics -- platny, ale laczy GSC z dziesiątkami narzedzi
Wiecej o narzedziach technical SEO -- nie tylko API, ale pelny ekosystem.
Wolisz, żeby zrobił to specjalista?
Oszczędź czas i uniknij błędów. Wdrożymy to rozwiązanie za Ciebie – profesjonalnie i szybko.
Praktyczne zastosowania -- co automatyzowac?
API to narzedzie. Wartosciowe staje sie dopiero wtedy, gdy rozwiazuje konkretny problem biznesowy:
Automatyczne raporty tygodniowe -- skrypt pobiera dane z GSC, porownuje z poprzednim tygodniem, generuje raport i wysyla na email lub Slack. Zamiast 30 minut recznego eksportu -- 0 minut, bo wszystko dziala na cron.
Alerty na spadki pozycji -- monitoruj 50-100 kluczowych fraz. Jesli srednia pozycja spada o wiecej niz 3 pozycje w tydzien -- alert na Slack. Reaguj zanim ruch zniknie.
Analiza low-hanging fruit -- pobierz frazy na pozycjach 5-15 z wysokimi wyswietleniami i niskim CTR. To strony, ktore wystarczy zoptymalizowac (meta title, description) zeby zdobyc wiecej klikniec bez tworzenia nowego contentu.
Bulk URL Inspection -- sprawdz status indeksacji setek lub tysiecy URL-i jednym skryptem. Przydatne po migracji, po duzych zmianach na stronie lub regularnie jako audyt indeksacji.
Integracja z GA4 -- polacz dane GSC (frazy, pozycje) z danymi GA4 (konwersje, revenue). Dowiesz sie, ktore frazy organiczne generuja sprzedaz, nie tylko ruch.
Przechowywanie danych historycznych -- to kluczowe. GSC trzyma dane przez 16 miesiecy. Po tym czasie -- znikaja bezpowrotnie. Eksportuj regularnie do BigQuery, PostgreSQL lub nawet Google Sheets. To jedyny sposob na pelna historie SEO Twojej strony.
Potrzebujesz profesjonalnej analityki SEO i raportowania? Sprawdz nasza oferte pozycjonowania -- wdrazamy systemy monitoringu, ktore dzialaja za Ciebie.
Limity API i best practices
Kazde API ma ograniczenia. Znajomosc limitow pozwala ich unikac:
Search Analytics API:
- 1200 queries na minute per uzytkownik
- Maximum 25 000 wierszy per request
- Dane z opoznieniem 2-3 dni
- Paginacja: uzyj parametru `startRow` zeby pobrac wiecej niz 25k wierszy
URL Inspection API:
- 2000 requestow dziennie per wlasciwosc (property)
- Brak batch endpoint -- kazdy URL wymaga osobnego requestu
- Tip: uzyj `ThreadPoolExecutor` w Pythonie do rownoleglych requestow (ale zachowaj limit)
Sitemaps API:
- 1200 queries na minute
- Zwraca dane o statusie, bledach i ostatnim crawlu
Obsluga bledow:
- 429 (Too Many Requests) -- exponential backoff: czekaj 1s, 2s, 4s, 8s...
- 401 (Unauthorized) -- odswierz token lub sprawdz uprawnienia Service Account
- 403 (Forbidden) -- poczekaj lub sprawdz limity projektu w Cloud Console
Best practices:
- Cachuj wyniki -- nie odpytuj API wielokrotnie o te same dane
- Agreguj dane po stronie klienta, nie w API (mniej requestow)
- Uzyj biblioteki `google-searchconsole` (Python wrapper) -- upraszcza skladnie
- Przechowuj dane lokalnie -- GSC kasuje po 16 miesiacach
Narzedzia i biblioteki
Ekosystem wokol GSC API jest zaskakujaco bogaty:
Python:
- `google-searchconsole` -- wrapper, ktory upraszcza zapytania do jednej linijki
- `googleapiclient` -- oficjalna biblioteka Google (bardziej verbose, ale pelna kontrola)
- `pandas` -- do obrobki i analizy pobranych danych
- `schedule` lub `cron` -- do cyklicznego uruchamiania skryptow
R:
- `searchConsoleR` -- pakiet do pobierania danych GSC w R
- Dobra opcja dla analitykow preferujacych R nad Python
No-code:
- Search Analytics for Sheets -- darmowy addon Google, idealny na start
- Screaming Frog -- ma wbudowana integracje z GSC (import danych o frazach)
- Looker Studio -- natywny connector, drag-and-drop dashboardy bez kodowania
Warto tez sprawdzic bledy w Google Search Console -- API pomoze je wykryc automatycznie, ale musisz wiedziec czego szukac.
Wspomniane narzędzia
Chcesz więcej ruchu z Google?
Pozycjonujemy strony firmowe i sklepy internetowe. White-hat SEO, comiesięczne raporty. Bez długich umów.
Najczęściej zadawane pytania
Czy moge pobrac wiecej niz 1000 fraz z GSC API?
Jak czesto dane sa aktualizowane w GSC API?
Czy Google Search Console API jest darmowe?
Czy potrzebuje umiec programowac zeby korzystac z GSC API?
Jak dlugo GSC przechowuje dane historyczne?
Potrzebujesz pomocy?
Wolisz, żeby zrobił to specjalista?
Oszczędź czas i uniknij błędów. Wdrożymy to rozwiązanie za Ciebie – profesjonalnie i szybko.