SlideShare ist ein Scribd-Unternehmen logo
1
Google Search Console
Daten-Interpretation & API
Stephan Czysch
Salzburg, 19. November 2015
2
SEO-Tools können nicht so sein wie Google:
Crawling läuft anders ab
 Google crawlt nicht wie der Screaming Frog u.ä. Tools
 Google crawlt nicht jede URL im immer gleichen Intervall
 Google bezieht beim Crawling die Crawling-Einstellungen der GSC, externe
Signale und historische Erkenntnisse mit ein
3
SEO-Tools können nicht so sein wie Google:
Sichtbarkeit vs. Traffic
 In WMT werden Nachfrageschwankungen abgebildet, bei Sichtbarkeitswerten nicht
 WMT: Keywords kommen und gehen / Keyword-Pool verändert sich
 Historische Daten (älter als 90 Tage) sind in WMT„futsch“
4
Wichtig: Daten werden abhängig von der
verifizierten URL-Struktur ausgegeben
 Datenlimits im Frontend:
 Meist maximal 1.000 Datenpunkte
 Zeitliche Begrenzung bei z.B. Suchanfragenbericht auf 90 Tage
5
Basics: Datenlimits durch Bestätigung relevanter
URL-Strukturen umgehen
https://www.google.com/webmasters/tools/home?hl=de
6
Doppelte Titel: Muster erkennen und das Problem
beseitigen
 Mögliche Maßnahmen:
 Seiten zusammenlegen
 Keyword-Ausrichtung ändern
 URL-Struktur überarbeiten
7
Bye bye [not provided]: Seit Mai 2015 zeigt Google
in der Suchanalyse detailliertere Daten
 Jede Dimension (z.B. Suchanfragen, Seiten) hat unterschiedliche Filter
 Über „Länder“ sieht man seine Rankings in allen Ländern, in denen die
Website eine Impression hatte
8
Bei Auswahl von „Seiten“ werden Metriken
seitenbezogen berechnet
Zum Vergleich: Domainaggregierte Daten bei Betrachtung unter „Suchanfragen“
9
Faustregel: Haben mehrere URLs ähnliche hohe
Impressions, sind es in der Regel Sitelinks
 Sitelinks werden vor allem bei „Brandsuchen“ angezeigt
 Irrelevante Sitelinks lassen sich über WMT abwerten
10
Ähnliches Ranking, unterschiedliche Klickrate: Ist
die „Daumenposition“ der Grund?
 Vergleich zwischen z.B. Desktop und Mobile kann Erkenntnisse über
einzelne Keywords liefern
 Bei diesem Keyword ist die Nachfrage für Desktop vs. Mobile bereits 50:50
11
Detailanalysen: Für welche Keywords ranken in
Shops Produktseiten? Fehlen passende Kategorien?
 Die Nutzerintention bei Prio-Bereichen / Suchanfragen analysieren und
schauen, ob eine Produktdetailseite der „falsche“ Einstiegsort ist
 Denn: Geht das Produkt offline, dann droht ein Rankingverlust
12
Externe Links: Zeigen Links womöglich indirekt auf
meine Website?
 Viele kommerzielle Tools zeigen bei weitergeleiteten Domains nur die Domain
selbst als einen Link
 Deshalb bei Linkanalysen auch die Links der weitergeleiteten Domains beachten
13
Interne Links: Sind wichtige Dokumente unter den
Top-Linkzielen?
 Hypothese: Sind URLs einfacher & häufiger erreichbar, dann ranken sie besser
 Die Daten oben weisen auf ein strukturelles Problem hin
 Umsatzrelevante Seiten sollten besser verlinkt werden
Aus Umsatzsicht relevant
„Irrelevante Seiten“
14
Zu viele URL-Varianten? Dann sendet Google gerne
eine Meldung
https://www.google.com/webmasters/tools/home?hl=de
15
Welche Seiten sind nicht „mobile-friendly“ und
sollten überarbeitet werden?
 Auch hier daran denken: Die Daten beziehen sich auf die bestätige URL
 Wenn eine getrennte mobile-Domain genutzt wird, wird das hier nicht
berücksichtigt
16
Wie viele URLs hat Google indexiert? Sind es ggf.
mehr als es sein sollten?
 Bei diesem Projekt: Nur 1.000 Produkte und 50 Kategorien, aber 80.000
indexierte Seiten
 Starke Veränderungen in beiden Richtungen sollten sich begründen lassen
17
Welche URLs sind über die robots.txt geblockt?
Unter Crawling-Fehler zeigt Google Beispiele
 Der „robots.txt“ Tester erlaubt nur Tests einzelner URLs
 Unter Crawling-Fehler tauchen URLs auf, die von der aktuellen robots.txt
blockiert werden
18
Wie viele URLs crawlt Google regelmäßig auf
meiner Domain?
 URLs können mehrfach pro Tag gecrawlt werden
 Jeder Aufruf geht in die Statistik ein
 Chart liefert keine Aussage darüber, was gecrawlt wurde (und was nicht)
19
Wie viele URLs kennt Google, die einen einzelnen
URL-Parameter enthalten?
 In diesem Fall wurden ohne Absprache mit dem SEO-Tool interne Links mit
einem Tracking-Parameter ausgestattet
 Die interne Verlinkung wurde dadurch verändert
20
Daten über die API extrahieren
21
Die spannendste API-Funktion ist die Abfrage von
bis zu 5.000 Suchanfragen-Datensätzen pro Anfrage
 Weitere Möglichkeiten der API: XML-Sitemaps einreichen, Beispiele zu Crawling-
Fehlern, Anzahl von Crawling-Fehlern nach Typ auflisten
 Bei Suchanfragen: Über Filter mehr Daten erhalten (z.B. „Suchanfrage enthält
nicht ABC“)
22
Tools wie Analytics-Edge sind eine einfache
Möglichkeit, um Daten über die API abzufragen
 Im Web: http://www.analyticsedge.com/google-search-connector/
 Auch SEO-Tools wie Sistrix holen Daten nach Freigabe über die API
23
API für den kleinen Mann: Automatische Reports
aus Google Analytics
 Datenaustausch zwischen Analytics und Webmaster Tools muss vorab
eingerichtet werden
24
Stephan Czysch
sc@trustagents.de

Weitere ähnliche Inhalte

PDF
SEO-Basics: Worauf es bei Suchmaschinenoptimierung wirklich ankommt | Stephan...
PPTX
Logfile-Analyse: Wo ver(sch)wendet Google Crawling-Ressourcen? | Stephan Czys...
PPTX
Vorstellung seoratiotools
PDF
hallo.digital: Content Relaunch
PDF
Hacks für mehr Traktion: Pragmatische Tipps für Low Effort und High Reward
PDF
Google Search Console für SEO einsetzen!
PPTX
SeoDay 2017: Mikroprozesse im SEO
PDF
Informationsarchitektur & Verlinkung - SMX München 2014
SEO-Basics: Worauf es bei Suchmaschinenoptimierung wirklich ankommt | Stephan...
Logfile-Analyse: Wo ver(sch)wendet Google Crawling-Ressourcen? | Stephan Czys...
Vorstellung seoratiotools
hallo.digital: Content Relaunch
Hacks für mehr Traktion: Pragmatische Tipps für Low Effort und High Reward
Google Search Console für SEO einsetzen!
SeoDay 2017: Mikroprozesse im SEO
Informationsarchitektur & Verlinkung - SMX München 2014

Was ist angesagt? (20)

PDF
Site Speed EXTREME - SEOkomm 2014
PDF
Welcome to a New Reality - SEO goes Mobile First in 2017
PPTX
Die Macht der internen Verlinkung - Seokomm2014 Vortrag
PPTX
SEO & Content Marketing entlang der Customer Journey
 
PDF
Mehr Pagespeed geht nicht - SEOkomm 2015
PPTX
Competitive Intelligence: Wettbewerbsbeobachtung im SEO und Online Marketing
PDF
Bing Webmaster Tools SMX Munich 2014
PDF
Google News Optimierung
PPTX
Linkmarketing - Backlinkaufbau 2016 inkl. live Linkaudit
PPTX
SEA Deep Dive Toolvergleich - SMX München 2015
PPTX
Linkbuilding durch skalierbare Strategien und Prozesse
PDF
SEOkomm 2019 - André Goldmann - User-Experience-Optimierung für SEOs - Wie du...
PPTX
Analytics & GTM Hacks für bessere Daten
PDF
Ads und Landing Pages mit CRO ideal verbinden
PPTX
Mehr Sichtbarkeit durch Google News und AMP
 
PPTX
PPC Bidmanagement tools – Get rich fast? OMX 2013
PDF
Google Discover analysieren und optimieren
PPTX
Onpage optimierung mit dem seo screaming frog
PDF
Screaming Frog Tricks | SEOKomm 2015
PPTX
Optimieren großer Websites mit Screaming Frog & Excel - Campixx 2014
Site Speed EXTREME - SEOkomm 2014
Welcome to a New Reality - SEO goes Mobile First in 2017
Die Macht der internen Verlinkung - Seokomm2014 Vortrag
SEO & Content Marketing entlang der Customer Journey
 
Mehr Pagespeed geht nicht - SEOkomm 2015
Competitive Intelligence: Wettbewerbsbeobachtung im SEO und Online Marketing
Bing Webmaster Tools SMX Munich 2014
Google News Optimierung
Linkmarketing - Backlinkaufbau 2016 inkl. live Linkaudit
SEA Deep Dive Toolvergleich - SMX München 2015
Linkbuilding durch skalierbare Strategien und Prozesse
SEOkomm 2019 - André Goldmann - User-Experience-Optimierung für SEOs - Wie du...
Analytics & GTM Hacks für bessere Daten
Ads und Landing Pages mit CRO ideal verbinden
Mehr Sichtbarkeit durch Google News und AMP
 
PPC Bidmanagement tools – Get rich fast? OMX 2013
Google Discover analysieren und optimieren
Onpage optimierung mit dem seo screaming frog
Screaming Frog Tricks | SEOKomm 2015
Optimieren großer Websites mit Screaming Frog & Excel - Campixx 2014
Anzeige

Andere mochten auch (20)

PDF
SEO Campixx 2015 | ETL & BI für SEO Analysen und Reportings von Johannes Kunze
PDF
Beyond Meta(Data): Improving Your Blog With Google Search Console
PDF
Export all the data! Rapporti avanzati per SEO e PPC
PPTX
Getting the right mix of digital analytics tracking, processes and tools
PPTX
Measuring Content Performance - Jon Hibbitt
PPTX
How to Use Google Search Console
PDF
Top 5 Ways to Analyze Your Website: Google Search Console
PPTX
SEO 101 - Google Search Console Explained
PDF
Google Search Console and controlling the spam in Analytics
PPTX
Google Search Console: An Ultimate Guide
PDF
Google Search Console
PPTX
Web Analytics and SEO: Learn the Ropes, Work a Plan, Measure the Right Stuff....
PDF
Technical SEO: 2016 Edition - SEODAY 2016
PPSX
Keyword Research in Autopilot by Google Spreadsheet Macros
PDF
Ttg mapping to_schema.org_
PPTX
Regular Expressions for Regular Joes (and SEOs)
PDF
SEO-Basics: Die 9 häufigsten SEO-Anfänger-Fehler
PDF
PASSION FOR PACKAGING: Erfolgreiche Kommunikation für die Print- und Packagin...
DOCX
Rubrica tpack (1)miguel
PDF
Método Deductivo
SEO Campixx 2015 | ETL & BI für SEO Analysen und Reportings von Johannes Kunze
Beyond Meta(Data): Improving Your Blog With Google Search Console
Export all the data! Rapporti avanzati per SEO e PPC
Getting the right mix of digital analytics tracking, processes and tools
Measuring Content Performance - Jon Hibbitt
How to Use Google Search Console
Top 5 Ways to Analyze Your Website: Google Search Console
SEO 101 - Google Search Console Explained
Google Search Console and controlling the spam in Analytics
Google Search Console: An Ultimate Guide
Google Search Console
Web Analytics and SEO: Learn the Ropes, Work a Plan, Measure the Right Stuff....
Technical SEO: 2016 Edition - SEODAY 2016
Keyword Research in Autopilot by Google Spreadsheet Macros
Ttg mapping to_schema.org_
Regular Expressions for Regular Joes (and SEOs)
SEO-Basics: Die 9 häufigsten SEO-Anfänger-Fehler
PASSION FOR PACKAGING: Erfolgreiche Kommunikation für die Print- und Packagin...
Rubrica tpack (1)miguel
Método Deductivo
Anzeige

Ähnlich wie Google Search Console: Dateninterpretation & API | Stephan Czysch | OMX 2015 (20)

PPTX
Werbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas Urban
PDF
SEOday Köln 2020 - Surprise, Surprise - 5 SEO secrets
PDF
Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018
PDF
White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...
PDF
Seo Basics: Google Rankingfaktoren 2016
PPT
15 sehr coole kostenlose SEO Tools
PDF
Crawl-Budget Optimierung - SEOday 2015
PPTX
1x1 Des Suchmaschinen Erfolges
PPTX
dda-12-2009
PDF
OMWest Barcamp 2018: Onpage SEO im Griff: Alerting und Monitoring für SEOs
PDF
Grundlagen der Suchmaschinenoptimierung
PPTX
SEO A/B Testing by John Munoz (Digital Loop)
PPT
Die 10 groeßten Fehler im eMarketing
PPTX
Mein Betrieb im Internet: So findet mich der Gast
PPTX
Mehr Verkäufe durch SEO Onsite- & Conversion Optimierung
PDF
2015 02-06-vortrag-seo-konferenz
PPS
Suchmaschinen Optimierung und Eintrag für Malermeisterbetriebe
PPT
10 grössten SEO Fehler
PPTX
SEO-Lexikon
PDF
Bullshit SEO
Werbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas Urban
SEOday Köln 2020 - Surprise, Surprise - 5 SEO secrets
Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018
White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...
Seo Basics: Google Rankingfaktoren 2016
15 sehr coole kostenlose SEO Tools
Crawl-Budget Optimierung - SEOday 2015
1x1 Des Suchmaschinen Erfolges
dda-12-2009
OMWest Barcamp 2018: Onpage SEO im Griff: Alerting und Monitoring für SEOs
Grundlagen der Suchmaschinenoptimierung
SEO A/B Testing by John Munoz (Digital Loop)
Die 10 groeßten Fehler im eMarketing
Mein Betrieb im Internet: So findet mich der Gast
Mehr Verkäufe durch SEO Onsite- & Conversion Optimierung
2015 02-06-vortrag-seo-konferenz
Suchmaschinen Optimierung und Eintrag für Malermeisterbetriebe
10 grössten SEO Fehler
SEO-Lexikon
Bullshit SEO

Mehr von TA Trust Agents Internet GmbH (9)

PDF
Präsentation zum Meetup - Hands-on SEO
PDF
Meetup | Data-Driven Marketing
PPTX
SEO mit kostenlosen Tools | Suchmaschinenoptimierung OMT 2018
PDF
Content Seeding - Meetup @ Trust Agents
PDF
Räume deine Webseite auf! | Dominik Wojcik | SEOkomm 2016
PDF
Crawling analysis to the fullest | J.Giesche & E.Protzel | SEOcampixx 2018
PPTX
10 technische SEO Hacks | Dominik Wojcik | SEOkomm 2017
PPTX
Next Level Tech SEO | Dominik Wojcik | SEO Day 2017
PPTX
SEO-Skalierung - von 0 auf 100 in Rekordtempo | Dominik Wojcik & Benedikt Ill...
Präsentation zum Meetup - Hands-on SEO
Meetup | Data-Driven Marketing
SEO mit kostenlosen Tools | Suchmaschinenoptimierung OMT 2018
Content Seeding - Meetup @ Trust Agents
Räume deine Webseite auf! | Dominik Wojcik | SEOkomm 2016
Crawling analysis to the fullest | J.Giesche & E.Protzel | SEOcampixx 2018
10 technische SEO Hacks | Dominik Wojcik | SEOkomm 2017
Next Level Tech SEO | Dominik Wojcik | SEO Day 2017
SEO-Skalierung - von 0 auf 100 in Rekordtempo | Dominik Wojcik & Benedikt Ill...

Google Search Console: Dateninterpretation & API | Stephan Czysch | OMX 2015

  • 1. 1 Google Search Console Daten-Interpretation & API Stephan Czysch Salzburg, 19. November 2015
  • 2. 2 SEO-Tools können nicht so sein wie Google: Crawling läuft anders ab  Google crawlt nicht wie der Screaming Frog u.ä. Tools  Google crawlt nicht jede URL im immer gleichen Intervall  Google bezieht beim Crawling die Crawling-Einstellungen der GSC, externe Signale und historische Erkenntnisse mit ein
  • 3. 3 SEO-Tools können nicht so sein wie Google: Sichtbarkeit vs. Traffic  In WMT werden Nachfrageschwankungen abgebildet, bei Sichtbarkeitswerten nicht  WMT: Keywords kommen und gehen / Keyword-Pool verändert sich  Historische Daten (älter als 90 Tage) sind in WMT„futsch“
  • 4. 4 Wichtig: Daten werden abhängig von der verifizierten URL-Struktur ausgegeben  Datenlimits im Frontend:  Meist maximal 1.000 Datenpunkte  Zeitliche Begrenzung bei z.B. Suchanfragenbericht auf 90 Tage
  • 5. 5 Basics: Datenlimits durch Bestätigung relevanter URL-Strukturen umgehen https://www.google.com/webmasters/tools/home?hl=de
  • 6. 6 Doppelte Titel: Muster erkennen und das Problem beseitigen  Mögliche Maßnahmen:  Seiten zusammenlegen  Keyword-Ausrichtung ändern  URL-Struktur überarbeiten
  • 7. 7 Bye bye [not provided]: Seit Mai 2015 zeigt Google in der Suchanalyse detailliertere Daten  Jede Dimension (z.B. Suchanfragen, Seiten) hat unterschiedliche Filter  Über „Länder“ sieht man seine Rankings in allen Ländern, in denen die Website eine Impression hatte
  • 8. 8 Bei Auswahl von „Seiten“ werden Metriken seitenbezogen berechnet Zum Vergleich: Domainaggregierte Daten bei Betrachtung unter „Suchanfragen“
  • 9. 9 Faustregel: Haben mehrere URLs ähnliche hohe Impressions, sind es in der Regel Sitelinks  Sitelinks werden vor allem bei „Brandsuchen“ angezeigt  Irrelevante Sitelinks lassen sich über WMT abwerten
  • 10. 10 Ähnliches Ranking, unterschiedliche Klickrate: Ist die „Daumenposition“ der Grund?  Vergleich zwischen z.B. Desktop und Mobile kann Erkenntnisse über einzelne Keywords liefern  Bei diesem Keyword ist die Nachfrage für Desktop vs. Mobile bereits 50:50
  • 11. 11 Detailanalysen: Für welche Keywords ranken in Shops Produktseiten? Fehlen passende Kategorien?  Die Nutzerintention bei Prio-Bereichen / Suchanfragen analysieren und schauen, ob eine Produktdetailseite der „falsche“ Einstiegsort ist  Denn: Geht das Produkt offline, dann droht ein Rankingverlust
  • 12. 12 Externe Links: Zeigen Links womöglich indirekt auf meine Website?  Viele kommerzielle Tools zeigen bei weitergeleiteten Domains nur die Domain selbst als einen Link  Deshalb bei Linkanalysen auch die Links der weitergeleiteten Domains beachten
  • 13. 13 Interne Links: Sind wichtige Dokumente unter den Top-Linkzielen?  Hypothese: Sind URLs einfacher & häufiger erreichbar, dann ranken sie besser  Die Daten oben weisen auf ein strukturelles Problem hin  Umsatzrelevante Seiten sollten besser verlinkt werden Aus Umsatzsicht relevant „Irrelevante Seiten“
  • 14. 14 Zu viele URL-Varianten? Dann sendet Google gerne eine Meldung https://www.google.com/webmasters/tools/home?hl=de
  • 15. 15 Welche Seiten sind nicht „mobile-friendly“ und sollten überarbeitet werden?  Auch hier daran denken: Die Daten beziehen sich auf die bestätige URL  Wenn eine getrennte mobile-Domain genutzt wird, wird das hier nicht berücksichtigt
  • 16. 16 Wie viele URLs hat Google indexiert? Sind es ggf. mehr als es sein sollten?  Bei diesem Projekt: Nur 1.000 Produkte und 50 Kategorien, aber 80.000 indexierte Seiten  Starke Veränderungen in beiden Richtungen sollten sich begründen lassen
  • 17. 17 Welche URLs sind über die robots.txt geblockt? Unter Crawling-Fehler zeigt Google Beispiele  Der „robots.txt“ Tester erlaubt nur Tests einzelner URLs  Unter Crawling-Fehler tauchen URLs auf, die von der aktuellen robots.txt blockiert werden
  • 18. 18 Wie viele URLs crawlt Google regelmäßig auf meiner Domain?  URLs können mehrfach pro Tag gecrawlt werden  Jeder Aufruf geht in die Statistik ein  Chart liefert keine Aussage darüber, was gecrawlt wurde (und was nicht)
  • 19. 19 Wie viele URLs kennt Google, die einen einzelnen URL-Parameter enthalten?  In diesem Fall wurden ohne Absprache mit dem SEO-Tool interne Links mit einem Tracking-Parameter ausgestattet  Die interne Verlinkung wurde dadurch verändert
  • 20. 20 Daten über die API extrahieren
  • 21. 21 Die spannendste API-Funktion ist die Abfrage von bis zu 5.000 Suchanfragen-Datensätzen pro Anfrage  Weitere Möglichkeiten der API: XML-Sitemaps einreichen, Beispiele zu Crawling- Fehlern, Anzahl von Crawling-Fehlern nach Typ auflisten  Bei Suchanfragen: Über Filter mehr Daten erhalten (z.B. „Suchanfrage enthält nicht ABC“)
  • 22. 22 Tools wie Analytics-Edge sind eine einfache Möglichkeit, um Daten über die API abzufragen  Im Web: http://www.analyticsedge.com/google-search-connector/  Auch SEO-Tools wie Sistrix holen Daten nach Freigabe über die API
  • 23. 23 API für den kleinen Mann: Automatische Reports aus Google Analytics  Datenaustausch zwischen Analytics und Webmaster Tools muss vorab eingerichtet werden

Hinweis der Redaktion

  • #3: z.B. Crawling: Google crawlt nicht wie der Screaming Frog u.ä. Tools Google crawlt nicht jede URL im immer gleichen Intervall Google bezieht beim Crawling die Crawling-Einstellungen der GSC, externe Signale und historische Erkenntnisse mit ein
  • #4: z.B. Suchanalyse: Eher Traffic-Index als Sichtbarkeitsdarstellung Keywords kommen und gehen Historische Daten > 90 Tage sind „futsch“
  • #6: Frontend: Meist 1.000 Datenpunkte maximal Zeitliche Begrenzung bei z.B. Suchanfragenbericht Datenverfügbarkeit basierend auf verifizierten URL-Strukturen
  • #7: Möglichkeiten Seiten zusammenlegen Keyword-Targeting ändern Eine Seite abschalten Hinweis auf letzte URL
  • #8: 6 Dimensionen Suchanfragen Seiten Länder Geräte Suchtyp Zeitraum Vergleich ist möglich 4 Metriken Klicks Impressionen Klickrate Position
  • #10: Information kann man nutzen, um Sitelinks gezielt abzuwerten
  • #22: Properties verifizieren XML-Sitemaps einreichen Anzahl von Crawling-Fehlern auflisten Beispiele zu Crawling-Fehler herausziehen Suchanfragedaten extrahieren Die API gibt für eine Anfrage bis zu 5.000 Werte zurück Je nach Anfrage erhält man wahrscheinlich andere Ergebnisse Wichtig: Die Daten sollten interpretierbar bleiben, um Mehrwert zu liefern Mögliche Aggregationen Brand vs. Non-Brand Desktop vs. Mobile Getrennt nach Seitentypen Top-URLs