Struktur des Beitrags
Die Google Webmaster-Konferenz wurde mit interessanten Informationen gefüllt. Hier werden die wichtigeren Themen behandelt.
Google veranstaltete am Montag zum ersten Mal die Google Webmaster-Konferenz in der Zentrale von Mountain View, Kalifornien.
Hier sind fünf Tipps und Trends, die wir von der Veranstaltung mitgenommen haben.
Strukturierte Daten.
Im Laufe der Jahre hat Google die Unterstützung für zusätzliche strukturierte Datenmarkierungen weiter ausgebaut und die Unterstützung für zusätzliche umfangreiche Suchergebnisse weiter ausgebaut. Aus den zahlreichen Vorträgen auf der Konferenz ging hervor, dass Google die Unterstützung für strukturierte Daten ausweiten wird, um neue Erfahrungen in den Suchergebnissen sowie im Assistenten mitzuteilen.
Dazu gehört das Hinzufügen neuer umfangreicher Ergebnistypen über die zahlreichen bereits offiziell unterstützten Optionen hinaus . Darüber hinaus verbessert und aktualisiert Google die Anzeige dieser umfangreichen Ergebnisse in den Google-Suchergebnissen. Behalten Sie also den Überblick über diese Änderungen und versuchen Sie, geeignete strukturierte Daten für Ihre Site zu implementieren.
Emoji-Suche.
Wussten Sie, dass Google über ein Jahr gebraucht hat, um Unterstützung für Emojis bei der Suche hinzuzufügen? Dies schließt die Fähigkeit von Google ein, Emojis zu crawlen, zu indizieren und zu bewerten.
Wussten Sie auch, dass Google über eine Million Suchanfragen pro Tag mit Emojis im Suchbegriff sieht? Ist das nicht 🤯?
Tipps zur Deduplizierung.
Google hat auch zahlreiche Tipps dazu gegeben, wie die Suchmaschine mit doppelten Inhalten umgeht und wie Webmaster Google dabei helfen können, die kanonische Version herauszufinden. Diese Tipps beinhalten:
- Verwenden Sie Weiterleitungen
- Verwenden Sie aussagekräftige HTTP-Ergebniscodes
- Überprüfen Sie Ihre rel = canonical Links
- Verwenden Sie hreflang zur Lokalisierung
- Melden Sie Entführungsfälle in den Foren
- Sichere Abhängigkeiten für sichere Seiten
- Halten Sie die kanonischen Signale eindeutig
Tipps zum Crawlen und Rendern.
Google bot auch zahlreiche Tipps zum Crawlen und Indizieren. Diese enthielten:
- Verlassen Sie sich nicht auf Caching-Regeln, Google beachtet sie nicht
- Google minimiert seine Abrufe, sodass GoogleBot möglicherweise nicht alles abruft
- Google überprüft Ihre robots.txt vor dem Crawlen
- In 69% der Fälle erhält Google einen 200-Antwortcode, wenn versucht wird, auf Ihre robots.txt zuzugreifen. In 5% der Fälle ist der 5XX-Antwortcode und in 20% der Fälle ist die robots.txt nicht erreichbar.
- Wenn Google aufgrund eines 5xx-Fehlers nicht auf Ihre robots.txt zugreifen kann, durchsucht Google die Website nicht
- Google rendert das, was Sie im Allgemeinen sehen, mit dem Chrome-Browser
- Google ruft 50-60 Ressourcen pro Seite ab, was einer Cache-Rate von 60-70% entspricht. Oder ungefähr 20 Abrufe pro Seite, so auch auf der Seite für Seo Agentur in Mainz
Synonyme.
Such-Lead, Paul Haahr hatte eine interessante Präsentation zu Synonymen und wie Google einige Abfragen versteht. Er führte uns durch Beispiele, wann Google etwas falsch gemacht hat, warum es etwas falsch gemacht hat und vor allem, wie Google Fehler in Zukunft behoben hat.
Hier sind ein paar Tweets mit diesen Details. Im ersten zeigt Haahr, wie Google die unterschiedlichen Bedeutungen von „gm“ in drei verschiedenen Abfragen analysieren kann, um sich auf Folgendes zu beziehen: General Motors, genetisch verändert und General Manager.