Strukturierte Datenauszeichnung + gezielte Snippet Optimierung

Suchmaschinen versuchen, über diverse Algorithmen zu bestimmen, welche Dokumente im Netz zu einer Suchanfrage relevant sind und in welcher Reihenfolge diese Dokumente angezeigt werden sollen. Problematisch ist für Suchmaschinen hierbei, dass vorliegende Daten je nach Kontext auch andere Bedeutung haben können.

Strukturierte Daten

Wofür steht 03047377093 ?

Kontonummer?

Telefonnummer?

Haben diese Zahlen eine Bedeutung?

Google 

 

schema.org

Suchmaschinenbetreiber haben den Versuch unternommen, eine einheitliche Mikroformatauszeichnung von Daten zu etablieren.

Rich Snippets basieren zwar auf strukturierten Daten, allerdings führen nicht alle strukturierten Daten auch zu Rich Snippets!

Rich Snippets  strukturierte Daten 

Ziel der Rich Snippets ist es, den User bereits innerhalb der SERPs umfassend über die Seite zu informieren.

So erscheinen Suchergebnisse mit Rich Snippets innerhalb der SERPs prominenter.

Sie nehmen mehr Platz ein und werden durch farbliche Elemente wie die gelben Sterne oder Bilder zum Eyecatcher.

Das kann zu einer Steigerung der Clickthrough-Rate  führen, auch wenn die Suchergebnisse nicht zu den Top-3-Rankings zählen.

t3n

Rich Snippet Beispiele 

Produkte

Events

Reviews

Reviews

Rezepte

  • Personen
  • Veranstaltungen
  • Rezepte
  • Lokale Einrichtungen
  • Erfahrungsberichte
  • Produkte
  • Musik
  • Bücher

Rich-Snippet-Element-Typen

 

Technische Umsetzung

 

Technisch werden Rich Snippets mit Hilfe von HTML-Markups  realisiert, die die unterschiedlichen Informations- beziehungsweise Elementtypen des Inhalts kennzeichnen.

 

Das bedeutet, dass bereits im Quellcode die Vielfalt der Informationen  dargestellt werden kann, die die Suchmaschine dann ausliest. Für die Einbindung von Rich Snippets können folgende Markups bei gleichen Ergebnissen verwendet werden: JSON-LD, Microdata sowie RDFa. Im Fachjargon hat sich jedoch der Überbegriff Mikroformate für alle drei Formattypen durchgesetzt.

t3n

Basic markup properties for Events

<script type="application/ld+json">
{
  "@context": "http://schema.org",
  "@type": "Event",
  "name": "Example Band goes to San Francisco",
  "startDate" : "2013-09-14T21:30",
  "url" : "http://example.com/tourdates.html",
  "location" : {
    "@type" : "Place",
    "sameAs" : "http://www.hi-dive.com",
    "name" : "The Hi-Dive",
    "address" : "7 S. Broadway, Denver, CO 80209"
  }
}
</script>
<div class="dl-faktbox-rating" itemscope itemtype="http://schema.org/AggregateRating" 
itemprop="aggregateRating">
 <div class="leserwertung">Leser-Wertungen: <span class="anzahl">613.733</span>
 <span itemprop="ratingCount" style="display:none;">613733</span></div>

 <div class="rating1" itemprop="ratingValue">92%</div>

 <div class="rating2">8%</div>

In diesem Beispiel ist der Informationstyp eine Bewertung, an der sich 613.733 Personen beteiligt haben und von denen 92 Prozent eine positive und 8 Prozent eine negative Bewertung abgegeben haben.

??????????

DATA Highlighter

Google Webmaster Tool

 

Strukturierte Daten im Webmaster Tool

 

Mehr Tiefgang:

Google In-Depth-Article

Yes! No. Yes?

Elemente für schema.org

Code-Beispiele 

Noch mehr Links

NOTE!

Website-Betreiber können den Suchmaschinen lediglich vorschlagen, welche Informationen als Rich Snippet erscheinen sollen. Selbst wenn im Quellcode alle Informationen korrekt markiert sind, bedeutet dies nicht, dass sie zwangsweise auch als Rich Snippets erscheinen. Ob und welche Informationen in den SERPs angezeigt werden, steuert letztlich nur die Suchmaschine.

Sitelinks - Beispiele

Sitelinks sind automatisch generierte Links, die unter den Suchergebnissen der Website erscheinen können. 

Abwerten von Sitelinks

Kann ein paar Tage dauern

Abwertung versehentlich --> kann rückgängig gemacht werden

Änderung der Sitelinks nicht möglich

Sitelink-Suchbox

Die Suchbox erleichtert die spezifische Suche bei Google, die zuvor nur dem Suchparameter „site:“ möglich war. Eine Suche mit dem Suchparameter „site“ in Verbindung mit der Webadresse liefert alle Seiten dieser Domain, die im Google-Index verfügbar sind.

Anleitung

Sitelink-Suchbox unterdrücken

Es ist nicht nur möglich, die innerhalb der Sitelinks eingegebenen Suchanfragen direkt an die interne Webseitensuche zu übergeben, sondern auch die Suchboxdarstellung in der Google-Suche für die eigene Website zu unterdrücken. Dazu muss Google über Meta-Tag "nositelinkssearchbox" angewiesen werden: 
<meta name = "google" content ="nositelinkssearchbox" />

Breadcrumbs

Beispiele 

Breadcrumbs strukturiert auszeichen

<body itemscope itemtype="http://schema.org/WebPage">
...
<div itemprop="breadcrump">
    <a href="damen/bekleidung">Damenbekleidung</a>
    <a href="damen/bekleidung">kleider">Kleider</a>
    <a href="damen/bekleidung">kleider/schwarze-kleider">Schwarze Kleider </a>
</div>
...
</body>

derzeit nur über google.com

Woher stammen die Daten?

Die Informationen, die in einem Knowledge Graph dargestellt werden, stammen aus Datenbanken, wie FreebaseWeather Underground oder aus der Wikipedia

Einzig die Bilder stammen aus der Google-Bildersuche

Vergleicht man die Ergebnisse der Bildersuche zu bestimmten Keywords mit dem dazu dargestellten Knowledge Graph, so erkennt man schnell, welche Bilder Google als relevant erachtet und ausliefert:

Die Kehrseite

Logo

    <script type="application/ld+json">
    {
      "@context": "http://schema.org",
      "@type": "Organization",
      "url": "http://www.example.com",
      "logo": "http://www.example.com/images/logo.png"
    }
    </script>

Corporate Contacts

 

<script type="application/ld+json">
{
  "@context" : "http://schema.org",
  "@type" : "Organization",
  "url" : "http://www.your-company-site.com",
  "contactPoint" : [{
    "@type" : "ContactPoint",
    "telephone" : "+1-401-555-1212",
    "contactType" : "customer service"
  }]
}
</script>
  • customer service
  • technical support
  • billing support
  • bill payment
  • sales
  • reservations
  • credit card support
  • emergency
  • baggage tracking
  • roadside assistance
  • package tracking

Social profiles

<span itemscope itemtype="http://schema.org/Organization">
  <link itemprop="url" href="http://www.your-company-site.com"> 
  <a itemprop="sameAs" href="http://www.facebook.com/your-company">FB</a>
  <a itemprop="sameAs" href="http://www.twitter.com/YourCompany">Twitter</a>
</span>
  • Facebook
  • Twitter
  • Google+
  • Instagram
  • YouTube
  • LinkedIn
  • Myspace
  • Pinterest
  • SoundCloud
  • Tumblr

Bilder & Videos

Auf die Größe kommt es an...

min. 320 Pixel 
max. 1.280 Pixel

... aber nicht auf das Format!

JPG vs. PNG

Suchmaschinen können den Inhalt von Bildern nicht bzw. nur in sehr begrenzten Rahmen erkennen. Gerade deswegen ist es wichtig, dass Suchmaschinen durch entsprechende Maßnahmen bei der Einordnung der Bilder unterstützt werden. Dazu gehört die Verwendung des „alt“ Attributs im Code, worin der Inhalt des Bildes in Textform beschrieben wird!

 

<img src="https://www.trustagents.at/bild.png"
alt="Trust Agent Beispiel-Bild" title="Trust Agents Beispiel-Bild 
id="beispiel-bild" class="bild-klasse" />

Lazy-Loading

Aus SEO-Sicht gilt dabei zu beachten, dass Bilder, die beim Ausliefern einer Webseite als valide Bildelemente im Quelltext mitangegeben werden, vom Crawler auch nicht korrekt gewertet und zugeordnet werden können.

Grundstock an Bildern laden!

schema.org nicht vergessen!

Video Optimierung

  • Dateiname

  • Keywords im Video

  • Titel

  • Beschreibung

  • Tags

  • Thumbnail

  • Caption

  • Design

  • Kanaltexte

Verlinkungen

Der gesamte Indexierungsprozess von Suchmaschinen erfolgt über Links (extern / intern). Der Crawler navigiert sich auf diese Weise durch das gesamte Web, und speichert die Daten auf den Servern ab.

Die Inhalte einer Website können ohne Verlinkung, oder anders gesagt ohne Navigation also weder von Usern, noch von Google erfasst werden.

 

GOOD TO KNOW ;-)

Informationsarchitektur: 

Das Fundament einer Website 

Der logische und stimmige Aufbau einer Website ist sowohl im Hinblick auf SEO als auch für die Benutzerfreundlichkeit sehr wichtig. 

 

Nur wenn die verschiedenen Inhalte sinnvoll gruppiert und schnell zu finden sind, können User leicht auf der Website navigieren und Suchmaschinen die Qualität des Webauftritts schnell beurteilen.

Informationsarchitektur vs. Usability

Informationsarchitektur bezeichnet den Prozess der Gestaltung der Struktur eines Informationsangebots.

 

Usability = Gebrauchstauglichkeit oder Benutzerfreundlichkeit.

Usability bezeichnet das Ausmaß, in dem ein Produkt, System oder Dienst durch bestimmte Benutzer in einem bestimmten Anwendungskontext genutzt werden kann, um bestimmte Ziele effektiv, effizient und zufriedenstellend zu erreichen. 

Gute Usability wird in der Regel gar nicht explizit wahrgenommen, schlechte hingegen schon.                 

Was macht eine gute IA aus?

Eine gute Informationsarchitektur beruht auf drei Komponenten:

 

  • Klassifikation

  • Kennzeichnung

  • Navigation

 

Was macht eine gute IA aus?

 

Navigation: Die Navigation ermöglicht dem Nutzer, den Weg zwischen den verschiedenen Bereichen zu finden. Hierbei sollte zum einen auf möglichst kurze Wege geachtet werden, zum anderen sollte die Navigation intuitiv bedienbar sein.

Klassifikation: Die Inhalte werden verschiedenen Kategorien zugeordnet, wobei die Zuordnung aus Sicht des Nutzers erfolgt.

Kennzeichnung: Die Kennzeichnung oder auch „Labeling“ gibt den Informationen den richtigen Namen bzw. die richtige Bezeichnung. So wird gewährleistet, dass der Nutzer sofort weiß, worum es sich bei dem jeweiligen Inhalt handelt.

 

Tiefe vs. flache IA

Grundsätzlich sollten Websites im Sinne der Suchmaschinen-freundlichkeit eine flache Informationsarchitektur aufweisen.

 

Die Anzahl der Klicks, mit denen man jeden Inhalt einer Website erreichen kann, sollte möglichst niedrig sein soll.

Bei einer tiefen Struktur besteht die Gefahr, dass nicht alle Seiten vom Suchmaschinen-Crawler erfasst werden.

Eine tiefe Informationsarchitektur führt oft zu einer unnötig hohen Anzahl an Klicks.

Bei einer flachen Seitenstruktur ist jede Inhaltsseite im folgenden Beispiel mit nur wenigen Klicks erreichbar – das ist besser für den User und die Suchmaschine! Für Suchmaschinen ist die Website leichter zu crawlen und der User kann den gesuchten Inhalt schneller finden, wodurch die Bounce-Rate sinkt.

Interne Verlinkung

Eine gute Informationsarchitektur geht immer mit einer guten internen Verlinkung einher. 

  •  

So viele Links wie nötig,

so wenige wie möglich!

Breadcrumps

Damit User leichter erkennen, wo sich gerade innerhalb des Webauftrittes befinden, sind Breadcrumps besonders wichtig. 

Breadcrump-Pfad unbedingt strukturiert auszeichnen.

Dies hat zur Folge, dass anstelle der URL in den SERPS der Breadcrumb-Pfad angezeigt wird.

 

Die Elemente sind klickbar und führen den User auf den entsprechenden Ankertext.

Ähnliche Inhalte anteasern!

Wenn möglich nicht mit AJAX nachladen, für Suchmaschinen nicht erkennbar!

HTML-Sitemaps verwenden

Wichtig: Struktur der Seite kenntlich machen!

Nicht alle Verweise auf einer Ebene und in gleicher Form anzeigen, Oberkategorien deutlich ausweisen und Unterkategorien z.B. einrücken.

Paginierung

Paginierung mit

rel="next" und rel="prev"

Product Page 1

<link rel="next" href="https://www.zalando.at/damen/?p=3&q=hose" />
<link rel="prev" href="https://www.zalando.at/damen/?p=1&q=hose" />

Product Page 2

<link rel="next" href="https://www.zalando.at/damen/?p=2&q=hose" />

Canonical Tag bei paginierten Seiten

Product Page 1 +

Product Page 2...

<link rel="canonical" href="http://www.kinderseite.com/alle-inhalte">

Kein "rel" + "next", wenn die "view all" in den SERPs angezeigt werden soll!

„Zeig mir auf wen Du linkst und ich sag Dir, wer Du bist!“

Keine Angst davor, auf andere Webseiten zu verlinken!

 

 (Nur, wer des Öfteren Links verkauft oder sich oft „kostenlose“ Produkte zuschicken lässt, der ist auf dünnem Eis unterwegs.)

Externe Links

Links gehören essentiell zum Internet dazu!

 

(Google kann es nicht leiden, wenn sich Webmaster „bezahlen“ lassen: Ob in großen/kleinen Scheinen oder (übermäßig) teure Produktproben.)

Wie verlinke ich richtig?

  • Anchortexte = worum geht es im Link? Keine Keyword-Anchortexte!
  • Begründete Links: Link als Quelle oder eine echte Empfehlung. Eine Empfehlung auch erklären, wieso.
  • Natürliche Links zeigen auf interessante Seiten – nicht auf SEO-Zielseiten. 
  • Linkziele und Linkgelegenheiten über Content Marketing.
  • Wie viele Seiten auf eine einzige URL verlinkt werden, ist irrelevant.
  • Intern niemals "nofollow" verwenden!
  • Bei regelmäßigen Verlinken auf gute Seiten, wird auch das Ranking der eigenen Seite steigen.

PangeRank und Co

Aktualisierung des PageRanks nur noch sporadisch

 

Abstrafung aufgrund von Linkverkauf mithilfe von Startseiten-PageRank

Ist der Wert für die Größe des Backlinks-Profils zu gering und sogar 0 oder unranked, wurde die Domain von Google abgestraft

EINE GUTE WEBSITE SETZT KEINE LINKS, FÜR DIE SIE SICH SCHÄMEN MÜSSTE!

Zusammenfassung

  • Mit einer gut durchdachten IA wird sichergestellt, dass der Nutzer und die Suchmaschine die Inhalte der Seite besser erreichen können und die Inhalte für die unterschiedlichen Bedürfnisse passend aufbereitet sind
  • Wichtig Zielseiten intern öfter verlinken, als nicht so wichtige Seiten!

  • Die IA Struktur kann auch in den URLs abgebildet werden, muss sie aber nicht. Anzahl der Klicks nicht die URL verantwortlich --> interne Verlinkung

  • Breadcrumb-Pfade sind gut für User und die Suchmaschine

  • HMTL Sitemap kann die Struktur einer Website positiv beeinflussen

  • Bei Onlineshops die Paginierung rel="next" und rel="prev"

Zusammenfassung II

  • Nofollow-Links weisen häufig auf ein Zeichen minderer Qualität der Webseite hin.
  • Keine Links auf nicht vertrauenswürdige  Inhalte setzten.
  • Gekaufte Links = bad Idea!
  • User Generated Content ist oft riskant und kann daher mit NoFollow ausgezeichnet werden --> Ausnahme
  • Werbung --> mit nofollow auszeichnen!
  • Regelmäßige Verlinkung auf gute Seite!   

Duplicate Content

Duplicate Content

Wenn Inhalte unter mehreren Webseiten in sehr ähnlicher oder exakter Form zur Verfügung stehen, wird von "doppelten Inhalt" gesprochen.

 

Duplikate stellen keine Mehrwert her und sollten aus Sicht der Suchmaschinen verhindert werden.

Was Suchmachinen crawlen

  • Inhalte die aufgrund von Verweisen oder Anmeldung bekannt ist

  • verfügbar oder nicht verfügbar ist

  • weitergeleitet werden

  • nicht vom Crawling ausgeschlossen wurden

robots.txt

Ein Beispiel, wie den Spidern erlaubt ist, die Seiten unter dem Protokoll http zu spidern aber unter dem Protokoll https die Finger davon zu lassen.

 

http-Protokoll (http://IhrServer.de/robots.txt): 

User-agent: *
Allow: / 

Für Ihr https-Protokoll (https://IhrServer.de/robots.txt):
User-agent: *
Disallow: /

Ein kompletter Eintrag, der dem Googlebot erlaubt alles zu indi-zieren, würde z.B. so aussehen:

robots.txt  in Hauptverzeichnis "Root" ablegen!

Disallow

 

Beispiel:

Disallow: /ordner1/

Disallow: /ordner2/unterordner/

Disallow: /webseite.html

Allow: /ordner3/

# Alle gif-Bilder sperren

Disallow: /*.gif$

Achten Sie darauf, dass Sie den Pfad ohne Domain angeben und immer mit einem Slash ("/") beginnen. 

Indexierungssteuerung

im <head> Bereich mittels Meta-Robots-Angabe

<meta name="robots"content=""> 

no index

no archiv

noimageindex

...

Achtung:

darf nicht über robots.txt ausgeschlossen werden!

Alles einzigartige URLS

http://www.example.com/

http://www.example.com

https://www.example.com

http://www.example.com/Unterseite

http://www.example.com/unterseite

http://www.example.com?query=12

Wann werden Canonical Tags implementiert? 

  • … wenn aus technischen Gründen keine Weiterleitungen eingerichtet werden können (also eine eindeutige URLs nicht möglich ist): Die Startseite ist unter mehreren URLs erreichbar, URLs sind mit und ohne Trailingslashes erreichbar, URLs sind mit Klein- und Großbuchstaben erreichbar.
  • … bei dynamischen Seiten mit mehreren URLs (z.B. bei Sortierfunktionen, Produktfiltern, Session-IDs).
  • … domainübergreifend, wenn z.B. Inhalte ebenfalls auf anderen externen Webseiten publiziert werden.
  • … wenn Inhalte in verschiedenen Formaten und Ansichten verfügbar sind (z.B. die Seiteninhalte auch als Druckansicht oder PDF vorhanden ist).

Wann werden 301-Weiterleitungen eingerichtet?

  • 301-Weiterleitungen sollten in den folgenden Fällen bevorzugt bzw. als Standard eingerichtet werden:
  • … wenn Seiten dauerhaft verschoben oder ersetzt werden.
  • … wenn ganze Domains dauerhaft verschoben oder ersetzt werden.
  • … wenn die Startseite, Unterseiten oder andere URLs unter mehreren Varianten erreichbar ist (z. B. Klein-/Großschreibung, Trailingslashes, http(s), www).

Sitemap.xml

HTML Sitemaps dienen zur besseren internen Verlinkung und Crawling. XML Sitemaps liefern mehr Informationen zu URLs, als nur eine reine Auflistung.

 Diese XML-Datei ist entsprechend des Sitemap-Protokolls http://www.sitemaps.org/protocol.html aufzubauen.

Empfehlung

Die XML Sitemap sollte im  automatisiert generiert werden und erreichbar sein unter:

 

  • exmaple.at/sitemap_xx.xml
  • sitemap_de.xml
  • sitemap_en.xml
  • sitemap_it.xml
  • sitemap_fr.xml

 

Hochladen im Webmaster-Tool!

  • Eigene Sitemaps bei Videos und Bildern!
  • Nur Adressen, die nicht vom Spidern ausgeschlossen sind
  • Richtige Codierung in UTF-8 und in XML umwandeln
  • Sitemaps geben einen Überblick über den aktuellen Indexierungsstatus in den Webmaster Tools

 

Toolempfehlung:

Duplicate Content

Page Speed Analyse

Optimierungen

  • Caching - Reverse-Proxy einsetzen (Varnish)
  • Codeoptimierung, sauberen und schnellen Code. PHP-Code-Zwischenspeicherung
  • Optimierung von Datenbankabfragen
  • DNS einsetzen
  • JavaScript und CSS optimieren
  • Bilder verkleinern
  • Text nie als Bild speichern
  • Sprites!
  • ...

Duplicate Content

"Die unglaublich großen Datenmengen und die Tatsache, dass sich Profile ständig ändern, macht es Google unmöglich, Social Media Daten in die Berechnung der Rankings einfließen zu lassen – so viel ist sicher."

Google sagt #not

Hilft´s nix - schad´s nix

1. Optimiere die OG-Tags für schicke Rich Snippets:

Damit das auch so funktioniert wie gewünscht, ist die Definition und Optimierung der OG-Tags (OG = Open Graph) notwendig.

 

2. Die Webseite für Social Media fit machen

 

3. Den Content „verlinkenswert“ machen

 

4. Social Media für die SERPS  mit schema.org

Um die Inhalte einer Website, beispielsweise eines Blog-Postings in den Social Graph zu bekommen, müssen die Inhalte zunächst in ein sogenanntes Graph-Elemente umgewandelt werden.

Social Signals

SEO 4.0

Topicerkennung

WDF/IDF-Formel = Suchmaschinen sind in der Lage, das Hauptthema einer Seite grob zu identifizieren.

Menschliches Votum

cool

uncool

nützlich

spamy

 

Googels Qualitätstester

Inhaltserkennung

Object detection, classification and labeling

Es geht nicht mehr darum, das Keyword genau zu treffen, es geht darum, den Inhalt zu verstehen.

"O.k., Google"

Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources

Tripel - MRS Logic

Wer oder was (Subjekt) hat welche Eigenschaft (Prädikat) in welcher Ausprägung (Objekt)?

Subjekt - Prädikat - Objekt

Links

Suchmaschinenoptimierung III SAE

By Daniela Holzer

Suchmaschinenoptimierung III SAE

Suchmaschinenoptimierung Teil II, technisches SEO, Webmaster-Tool etc., SEO 4.0, strukturierte Daten, schema.org, Google Knowledgraph für Diploma Kurs "Webdesign und Development" SAE Wien

  • 382
Loading comments...

More from Daniela Holzer