Steigere die Sichtbarkeit auf Google – messbar und nachhaltig
Mit einer starken Sichtbarkeit in den organischen Suchergebnissen von Google erhöhst du die Zahl deiner Website Besucher enorm und dadurch natürlich auch die Anzahl an Aufträgen, Verkäufen und den Umsatz. Eine Suchmaschinenoptimierung (SEO) gehört für Unternehmen deshalb zum A und O der Marketing- und Vertriebsstrategie. Dabei sollte immer die User Experience (UX) im Fokus der Maßnahmen stehen. Denn umso glücklicher deine Besucher sind, umso mehr dankt es dir auch die Suchmaschine. Mit der OnPage Optimierung deiner Website sorgst du dafür, dass alle technischen und inhaltlichen Faktoren, die für die UX sowie das Google Ranking relevant sind, ideal aufgestellt werden und sich die Position deiner Homepage in der Google Suche entsprechend verbessert.
Die erfahrenen SEO Experten von isemo führen eine ganzheitliche OnPage Optimierung deiner Website durch und berücksichtigen alle relevanten Ranking Faktoren. Natürlich dokumentieren wir alle Maßnahmen und machen die verbesserte Sichtbarkeit in der organischen Google Suche, die optimierte User Experience deiner Besucher und damit den Erfolg der Aktionen messbar. Zusätzlich schnüren wir für dich ein effektives SEO Monitoring Paket, mit dem du alle relevanten Entwicklungen verfolgen und zeitnah auf neu auftretende Herausforderungen reagieren kannst. Als professionelle SEO Agentur und offizieller Google Partner sind wir dabei immer auf dem neusten Stand und lassen unsere Insights in die SEO Strategie miteinfließen.
OnPage Optimierung Tipps & Best Practices
Neben einer parallelen OffPage Optimierung sind beim SEO zahlreiche Kriterien entscheidend, um den oft zitierten Google Vorgaben “Mobile first”, “Content is king” und “Be speedy” gerecht zu werden und langfristig die höchstmögliche Sichtbarkeit in der Suchmaschine zu erreichen. Folgend haben wir eine Auswahl an wichtigen Punkten für dich zusammengestellt, auf die bei der OnPage Optimierung geachtet werden sollte. Die Inhalte werden wir immer wieder aktualisieren, um den ständig wachsenden Innovationen, Erfahrungen und Algorithmusanpassungen gerecht zu werden. Für weiterführende Informationen oder Fragen kontaktiere einfach unseren OnPage Optimierung Support.
Themenübersicht:
- User Experience (UX)
- SEO Aktualität
- SEO Individualität
- SEO Monitoring
- Responsive Design
- Ladezeit
- Keyword Clustering
- Thin Content
- Content Keywords (WDF / IDF)
- Content Struktur
- Duplicate Content
- Meta Tags
- Rich & Featured Snippets
- AMP
- Clean URLs
- XML Sitemap(s)
- Robots.txt
- H1 Struktur
- Navi Struktur
- Interner Linkfluss
- Ankertexte
- Bilder SEO & ALT Attribute
- SSL Zertifikat
- Canonical Tags
- International SEO & Geotargeting
- Crawling / Indexierung
- Pagination / PRG Pattern
- Datenvolumen
- Cloaking / Rendering
- Blockierte Ressourcen
- User Signals
- 404 Fehler
- Flash Check
- MIME Type
- Datenschutz
- Website Relaunch
- Core Web Vitals
User Experience (UX)
Beim Thema SEO sprechen wir heute fast immer von einer Google Optimierung. Allerdings steht bei einer nachhaltigen Suchmaschinenoptimierung nicht die Suchmaschine selbst, sondern immer der Besucher im Fokus. Umso zufriedener der Nutzer ist, umso besser dessen User Experience (UX) ausfällt, umso höher wird Google deine Website für das Ranking einstufen. Schließlich zahlen fast sämtliche Google Ranking Faktoren auf die Optimierung der UX ein. Egal, ob es sich um die Ladezeit, um eine anwenderfreundliche und logische Menüführung oder um ansprechende und einzigartige Inhalte handelt. Bei der Konzeption einer SEO Strategie solltest du dich also nicht primär fragen, was du im Sinne der Suchmaschine optimieren kannst, sondern vielmehr, was für Optimierungen im Sinne der UX deiner Besucher von Interesse sind.
SEO Aktualität
Genauso wie das Suchverhalten der Menschen täglich variiert, befinden sich auch der Google Algorithmus und die Ranking Faktoren in einem ständigen Entwicklungsprozess. Suchen mehr Menschen über ein mobiles Gerät, rücken natürlich andere Ranking Faktoren in den Fokus als bei der Suche über den Desktop. Nutzen immer mehr Menschen die Sprachfunktion als Suche, hat auch das Auswirkungen auf den Algorithmus. Mit jedem Google Update, was in der Regel alle drei bis vier Monate ausgespielt wird, verändern sich deswegen auch die SEO Spielregeln. OnPage Optimierungen die heute das Maß aller Dinge sind, können deshalb schon morgen nur noch Randnotiz sein. Eine optimale SEO Strategie muss aus diesem Grund immer am Puls der Zeit sein und aktuelle Entwicklungen berücksichtigen.
SEO Individualität
SEO Strategien lassen sich nicht einfach übertragen. Was für Website A perfekt funktioniert hat, kann bei Website B gar keine Früchte tragen oder sich sogar negativ auswirken. Was bei der einen Homepage im Fokus der Optimierungen steht, ist bei der anderen vielleicht völlig irrelevant. Jede Website ist anders und braucht deshalb auch ein individuell auf sie zugeschnittenes SEO Konzept. Dabei zählt auch das Marktumfeld. Denn die Gewichtung der Google Ranking Faktoren fällt je nach Branche unterschiedlich aus und beispielsweise die SEO Strategie für einen Finanzdienstleister sollte einen anderen Fokus haben als für einen Online Shop im Bereich Mode.
SEO Monitoring
Mit einer einmaligen SEO Optimierung deiner Website verbesserst du die Sichtbarkeit auf Google und erreichst eine prominente Position in den Suchergebnissen. Wenn du diese Position aber auch dauerhaft behalten willst, ist es mit einer einmaligen Maßnahme nicht getan. Denn die Gewichtung der Ranking Faktoren befindet sich stetig im Wandel, neue kommen hinzu, Wettbewerber schlafen nicht und stärken die eigene Sichtbarkeit und die Platzierung deiner Website wird spätestens mit jedem Google Update neu bewertet. Um also dauerhaft eine Position auf den vorderen Rängen einnehmen zu können, sind entsprechend kontinuierliche SEO Maßnahmen erforderlich.
Mit einem professionellen SEO Monitoring hälst du die Entwicklung deiner Website auf Google fest und kannst daraus entsprechende Learnings zur Optimierung ziehen. Welche Evolution nehmen die einzelnen Unterseiten deiner Website? Wie entwickelt sich das Ranking in Bezug zu deinen wichtigsten Keywords? Reduziert oder steigert sich die User Experience deiner Besucher? Über welchen Kanal kommen deine wertvollsten Kunden und wie gestaltet sich die Customer Journey? Die Antworten auf diese und mehr wichtige Fragen bündeln sich in einem kompakten Report, der dir dank eines kontinuierlichen SEO Monitorings zur Verfügung steht.
Responsive Design
Es surfen mittlerweile mehr Menschen mit einem Handy im Internet als mit einem Desktop Computer und auch bei Google kommen über 50 % der Suchanfragen über ein mobiles Endgerät. Entsprechend ist eine von Google’s Parolen schon seit langer Zeit “Mobile first” und die Nutzerfreundlichkeit einer Website für Smartphones ist einer der wichtigsten SEO Faktoren. Dabei gibt es drei verschiedene Wege eine Website für Smartphones zu optimieren:
-
Separate URLs: Die mobile Version der Website wird auf einer anderen URL ausgeliefert, zum Beispiel auf der Subdomain “m.isemo.de”. Der Quellcode der mobilen Version ist also ein anderer als der, der Desktop Version. Stellt Google, wie angekündigt, auf den mobilen Index um, wäre diese Lösung aus SEO Sicht nicht mehr zu empfehlen.
-
Dynamic Serving: Die mobile Version der Website wird auf der gleichen URL ausgeliefert wie die Desktop Version, für diese wird allerdings ein anderer Quellcode bereitgestellt. SEO technisch birgt diese Lösung zwar das größte Potenzial, dafür ist sie auch am aufwendigsten und gilt als relativ fehleranfällig.
-
Responsive Design: Die mobile Version der Website wird auf der gleichen URL wie die Desktop Version ausgeliefert und auch der Quellcode ist gleich. Dieser wird allerdings, je nach Endgerät des Besuchers, anders gerendert und damit werden die Inhalte der Website optimal an die entsprechende Displaygröße angepasst. Responsive Design ist die von Google präferierte Lösung.
Keyword Clustering
Ein holistisches Keyword Clustering ist die Grundlage einer jeden Suchmaschinenoptimierung. Damit werden themenverwandte Schlüsselwörter in semantischen Einheiten gruppiert und darauf basierend die inhaltliche Struktur einer Website aufgebaut. Eine so definierte Einheit besteht in der Regel aus einem Fokus-Keyword, welches zum Beispiel für ein bestimmtes Produkt oder eine bestimmte Dienstleistung steht und diesem werden alle themenverwandten Begriffe zugeordnet. Anstatt sich beim Aufbau einer jeden Seite deiner Website also nur auf ein spezielles Keyword zu konzentrieren, liegt der Fokus auf einem ganzen Themengebiet und der damit verbundenen Palette an Keywords.
Dadurch wird ein wesentlich höherer semantischer Zusammenhang zwischen relevanten Suchanfragen und deinem Content hergestellt und genau diesen hoffen deine Besucher auf der Website vorzufinden. Die Folge ist ein besseres Ranking in den Suchergebnissen, denn auch die Suchmaschine stellt natürlich fest, dass du nicht nur einen Punkt (ein Keyword) einer bestimmten Themenkategorie auf deiner Website behandelst, sondern einen breiten Katalog der themenrelevanten Inhalte abdeckst.
Ladezeit
Die Ladezeit einer Website hat großen Einfluss auf das SEO Ranking, was Google’s neu ausgegebenes Motto “Be speedy” unterstreicht. Vor allem mobile Nutzer, die mittlerweile die Mehrheit der Internetsurfer ausmachen, sind meist mit einer eher langsamen Verbindungsgeschwindigkeit unterwegs, weshalb die Ladezeit, gerade aus Sicht der User Experience (UX), immer relevanter wird. Aktuelle Zahlen von Google & Amazon belegen, dass schon eine längere Ladezeit von 100ms die Conversion Rate um 1 % verschlechtert und eine längere Ladezeit von 500ms den möglichen Traffic um bis zu 20 % reduziert.
Thin Content
“Content is king” hat Google mit als oberste SEO Devise ausgegeben. Websites, die kaum über redaktionelle Inhalte verfügen, nur statische Seiten aufweisen oder weniger als 300 Wörter pro Seite im Fließtext haben, verlieren im Gegensatz zu Websites mit starkem Content im Ranking. Dabei ist der Ansatz, möglichst viele SEO relevante Keywords im Text unterzubringen, längst veraltet. Vielmehr sollte holistischer Content umgesetzt werden, also ein möglichst breites Themenspektrum der jeweils relevanten Inhalte. Die Qualität und damit ein hoher redaktioneller Anspruch steht nicht nur für den Leser, sondern auch für Google im Fokus. Es spielt zwar nur eine untergeordnete Rolle, wo auf der jeweiligen Seite der Text eingebunden wird, allerdings sollte der Text aus SEO Sicht nicht versteckt sein. Denn Texte, die beispielsweise erst aufgeklappt werden müssen, um sichtbar zu sein, werden von Google in Ranking Fragen (noch) nicht berücksichtigt.
Content Keywords (WDF / IDF)
Mit einer stärkeren Integration der Top Keywords im Content steigt deren Relevanz im Google Index. Allerdings sollte in jedem Fall auf “Keyword Bashing” verzichtet und auf eine gute Lesbarkeit sowie einen hohen redaktionellen Anspruch geachtet werden. Merkt der Leser, dass du den Text aus SEO Gründen für eine Suchmaschine geschrieben hast, hast du etwas falsch gemacht. Außerdem kann mit einer WDF / IDF Analyse (Within Document Frequency / Inverse Document Frequency) identifiziert werden, welche sonstigen Wörter zu einem ausgewählten Keyword in den Texten von Websites am häufigsten vorkommen, die auf Google am stärksten zum gewünschten Thema positioniert sind. Mit der Integration dieser Wörter förderst du zusätzlich die Sichtbarkeit deiner Website.
Content Struktur
Als Gegenleistung für ein gutes Ranking fordert Google Content in Publisher Qualität. Unter Publisher Qualität versteht Google redaktionell anspruchsvolle Texte, deren strukturelle Aufbereitung einer optimalen Lesefreundlichkeit dienen sollte. Unserer Erfahrung nach hat sich die folgende Struktur als besonders empfehlenswert erwiesen:
- Durchschnittlich 4 Zeilen a 50 Wörter gefolgt von einem Absatz
- Mindestens Schriftgröße 14 (variiert je nach Schriftart)
- Texte mit mindestens 300 Wörtern bei nicht redaktionellen Seiten
- Texte mit mindestens 1.600 Wörtern bei redaktionellen Seiten
- Die durchschnittliche Lesedauer sowie der Autor sollten bei redaktionellen Seiten ausgewiesen werden
- Der erste Absatz eines längeren Textes sollte eine kurze Inhaltsangabe liefern
- Die wichtigsten Keywords sollten in der Headline stehen (idealerweise am Anfang)
- Zusätzlich sollten die wichtigsten Keywords mehrfach im Text vorkommen und ggf. im Ankertext von Verlinkungen stehen
- Nur Sichtbare Inhalte zählen; Text der ausgeklappt werden muss o.ä., wird von Google SEO technisch nicht berücksichtigt
- Google liebt Bulletpoints; eine zusammenfassende Aufzählung der wichtigsten Themen des Textes erfreut Leser und Suchmaschine
- Der Content sollte idealerweise in verschiedenen Formaten aufbereitet werden (als Text, in Bildform, als PDF zum Download, Podcast oder Video)
Duplicate Content
Haben zwei verschiedene Domains oder Seiten einer Website den gleichen oder einen sehr ähnlichen Inhalt, wertet Google das als Duplicate Content – also als nicht individuellen und hochwertigen Inhalt. Jede Seite sollte entsprechend über einzigartige Texte verfügen. Zudem behandelt Google bereits die bei jeder Website existierenden Versionen mit und ohne “www” in der URL als zwei verschiedene Domains (genauso mit http oder mit https, genauso mit und ohne Endung auf “/”). Um diesbezüglichen Duplicate Content zu vermeiden, ist eine einheitliche Linkstruktur wichtig, außerdem sollten Canonicals und / oder 301 Redirects für alle nicht Hauptdomains eingerichtet werden und auf die Hauptseite verweisen. Bei Online Shops kommt es häufig vor, dass z.B. durch die Anwendung von Filtern Paginationsseiten entstehen, welche ebenfalls als Duplicate Content gewertet werden können. In diesem Fall würde sich eine Deindexierung dieser Seiten via Meta Robots Tags anbieten.
Meta Tags
-
Der Meta Tag “Title” bestimmt die Headline jeder einzelnen Seite und wird in den Google SERPs (Search Engine Result Pages) entsprechend angezeigt. Der Meta Title gilt nach wie vor als ein Ranking Faktor, deshalb empfiehlt es sich, das wichtigste Keyword der Website an den Anfang zu stellen, solange das thematisch auch sinnvoll ist. Der Title sollte für jede Seite möglichst individuell und nicht länger als 70 Zeichen lang sein (inkl. Leerzeichen).
-
Der Meta Tag “Description” liefert die Beschreibung der entsprechenden Seite für die SERPs (Search Engine Result Pages). Die in der Beschreibung enthaltenen Keywords gelten nicht als Ranking Faktor. Es ist also wichtiger, hier individuelle und ansprechende Inhaltsangaben für den Nutzer bereit zu stellen und nicht SEO Keywords unterzubringen. Die Beschreibung sollte aktuell nicht mehr als 156 Zeichen (inkl. Leerzeichen) enthalten, diese Länge sollte aber möglichst ausgenutzt werden. Mit der Integration von Unicode Zeichen (✓, ☎…) können SERPs sich außerdem optisch absetzen, was in der Regel bessere Klickrates zur Folge hat.
-
Die Meta Tag “Keywords” haben einen Großteil ihrer Relevanz für die Google Suche eingebüßt, werden von vielen Website-Inhabern aber nach wie vor als “Basisausstattung” genutzt. Jede Seite sollte idealerweise über individuelle Meta Keywords verfügen, mit denen die themenrelevantesten Begriffe der jeweiligen Seite abgedeckt werden. Dabei solltest du immer im Hinterkopf behalten, ob es für dich Sinn macht, zu dem gewählten Meta Keyword in der Google Suche gefunden zu werden. Umso spezifischer das Keyword, umso besser. Definiere einen allgemeinen Begriff wie “Online Shop” als Meta Keyword, ist das viel zu ungenau. Verkaufst du in deinem Shop beispielweise Herrenmode, sollte das Meta Keyword also besser “Herrenmode Online Shop” lauten.
Rich & Featured Snippets
Rich bzw. Featured Snippets werden auf lange Sicht die Meta Tags ersetzen und definieren, welche Infos in welchem Format in den Suchergebnissen von Google angezeigt werden. Mit solchen Snippets können die SERPs wesentlich umfangreicher gestaltet werden, so lassen sich z.B. Preise von Produkten tabellarisch in den Suchergebnissen darstellen oder Fotos hinzufügen. Die Anlegung erfolgt zum Beispiel über das Mark-Up Tool in der Google Search Console oder über den Google Tag Manager.
AMP
AMP (Accelerated Mobile Pages) ist ein von Google, Adobe und WordPress entwickelter Framework Standard für besonders schnelle mobile Websites. In diesem Standard programmierte Webinhalte werden separat und prominent in den mobilen Suchergebnissen von Google angezeigt und können, ohne jede Ladedauer, direkt in der Google Suche geöffnet werden. Websites, die solche Inhalte zur Verfügung stellen, werden von Google durchaus im Ranking bevorzugt behandelt. Allerdings wird AMP auch kritisch betrachtet, da unter anderem der Programmieraufwand recht hoch ist, AMP vom eigentlich von Google empfohlenen Responsive Design abweicht und die Konsumenten von AMP Inhalten in der Regel nicht auf der Website des Content Produzenten landen.
Clean URLs
Google bewertet die URL Struktur quasi nach Nutzererfahrung. Eine saubere bzw. SEO freundliche URL wie “beispielseite.de/beispiel-produkt” wird positiv bewertet, weil der Besucher sowie der Googlebot sofort wissen, was einen auf der Seite erwartet. Entsprechend negativ wird eine Seite wie “beispielseite.de/index.php?xyz60.6” bewertet, weil sich daraus kein Aufschluss über den Inhalt ergibt.
XML Sitemap(s)
Eine XML Sitemap ist für Google wie ein Wegweiser. Ohne steigt das Fehlerpotenzial, der Googlebot findet sich schlechter auf der Website zurecht, braucht länger für die Indexierung und das begrenzte Crawl Budget wird unnötig schnell verbraucht. Die Inhalte der Sitemap sollten logisch aufgebaut sein und keine Seiten enthalten, die beispielsweise nicht mehr erreichbar sind, nur eine Weiterleitung darstellen oder auf veraltete Inhalte / Versionen verweisen. Alle Seiten, die auch indexiert werden sollen, gehören in die Sitemap. Umgekehrt sollte die Sitemap keine Seiten enthalten, die von der Indexierung ausgeschlossen werden.
Robots.txt
Die Robots.txt Datei ist wie eine Nachricht an Google und andere Suchmaschinen bzw. Bots, mit dem Befehl die Website zu indexieren bzw. bestimmte Verzeichnisse oder Seiteninhalte nicht zu indexieren. Außerdem lassen sich zum Beispiel Spam Bots über die Robots.txt Datei ausschließen. Um spezielle Seiten vom Crawling auszuschließen, ist allerdings nicht der Eintrag in der Robots.txt Datei, sondern der Einsatz von Meta Robots Tags zu empfehlen.
H1 Struktur
H1 Tags sind die Hauptüberschriften einer Seite und sollten möglichst individuell und nur einmal pro Seite vergeben werden. Die Wörter, die in H1 Tags stehen, bewertet Google als besonders relevante Keywords. Deshalb empfiehlt es sich, hier möglichst suchrelevante Begriffe zu integrieren. H2 Tags, also die nächst kleineren Überschriften, sollten nur dann mehr als einmal pro Seite vergeben werden, wenn die Seite mindestens 300 Wörter enthält. H3 oder H4 Tags können bedenkenlos mehrfach pro Seite vergeben werden. Zusätzlich ist eine plausible Hierarchie förderlich für eine SEO Optimierung (nur wenn es einen H1 Tag gibt, sollte auch ein H2 vergeben werden, nur wenn es einen H2 Tag gibt, sollten auch H3 Tags vergeben werden usw.).
Navi Struktur
Aus Google Sicht sollte die Navi Struktur wie ein Stammbaum aufgebaut sein und jedes “Kind” (also Unterseite) über die entsprechenden “Eltern” (also Hauptseiten) verfügen. Da hier allerdings zwei SEO Empfehlungen miteinander kolidieren können, werden vor allem bei Online Shops oft Ausnahmen gemacht. Denn umso weiter eine Seite von der obersten Ebene entfernt ist, umso weniger “Linkjuice” erhält diese. Es kann also durchaus Sinn machen, in Teilen auf die Stammbaum Struktur zu verzichten, damit einzelne Artikelseiten nur 1-2 Klicks von der Startseite entfernt sind und dadurch mehr Chancen auf ein besseres Ranking in der Google Suche haben.
Interner Linkfluss
Der interne Linkfluss ist wahrscheinlich einer der am meisten unterschätzten Ranking Faktoren. Seiten einer Website, auf die mehrere interne Links verweisen, schätzt Google in der Regel als wertvoller ein, als Seiten, auf die keine internen Links führen. Mit dem internen Linkfluss können Website-Betreiber also Einfluss auf das Ranking der verschiedenen Seiten nehmen. Ist eine bestimmte Seite beispielsweise besonders gut in der Google Suche positioniert und verfügt dementsprechend über einen hohen “Linkjuice”, könnte diese, durch interne Verlinkungen, ein wenig ihrer Ranking Power an ausgewählte andere Seiten abgeben. Ziel des internen Linkflusses sollte es also nicht sein, wahllos interne Links zu generieren, sondern eine SEO strategisch sinnvolle Umverteilung der internen Links umzusetzen.
Ankertexte
Ein Ankertext ist der Text, der im Hyperlink steht. Liegt der Link beispielsweise hinter dem Wort “mehr Infos” kann Google damit wenig anfangen. Liegt der Link stattdessen hinter “Informationen zur Suchmaschinenoptimierung”, ist dies ein Ankertext, den Google positiv bewertet. Wörter die in einem Hyperlink stehen, erhalten außerdem eine höhere Keyword-Relevanz, ähnlich den Wörtern in H1 Tags.
Bilder SEO & ALT Attribute
Google ist für Grafiken und Bilder quasi blind. Deshalb sollten eindeutige Dateinamen und idealerweise ALT Attribute für jedes Bild vergeben werden. Die ALT Attribute sind wie Meta Tags für Bilder, die mit Titel und Beschreibung der Suchmaschine mitteilen, was auf den Bildern zu sehen ist. Die ALT Texte an sich (ausgenommen der Titel) haben zwar an SEO Relevanz eingebüßt, gelten aber nach wie vor als Standard. So sind Bilder keine “schwarzen Löcher” mehr für den Googlebot, sondern weitere relevante Inhalte. Außerdem trägt diese Optimierung zusätzlich zu einer wesentlich besseren Sichtbarkeit in der Google Bildersuche bei. Dabei unterliegen Bilder ganz eigenen Ranking Faktoren, die es idealerweise einzuhalten gilt:
-
Sprechender Dateiname: Vergebe einen themenrelevanten, individuellen und sprechenden Dateinamen, bei dem mehrere Wörter durch ein “-” und nicht durch ein “_” getrennt sind. Nicht zuletzt deshalb, weil der Dateiname von vielen CMS oder Shop Systemen als ALT Titel herangezogen wird.
-
Hohe Bildgröße: Um auf den meisten Bildschirmen in einer optimalen Größe dargestellt werden zu können, empfiehlt sich eine Bildbreite von mindestens 1024 Pixeln.
-
Niedriges Datenvolumen: Parallel zu dieser recht hohen Bildgröße sollte das Datenvolumen eines Bildes so gering wie möglich ausfallen. Achte darauf, dass dein Bild dem Web Standard von 72dpi sowie sRGB oder RGB entspricht und in einem komprimierten Dateiformat gespeichert ist, zum Beispiel als jpg.
-
Detailinfos: Umso mehr Hintergrundinformationen du für deine Bilder bereitstellst, umso besser. Wie sind z.B. die Abmessungen des Bildes oder wie sieht es mit Copyright Hinweisen aus?
-
Ordnerstruktur: Auch die Struktur der Ordner, in denen deine Bilder abgelegt sind, spielt eine Rolle. Diese sollte möglichst granular sowie themenbezogen sein und auch der Dateiordner sollte einen sprechenden und eindeutigen Namen haben.
-
Skalierbarkeit: Vermeide die Skarlierbarkeit deiner Bilder. Denn wenn du dein Bild in vielen verschiedenen Größen hochlädst, leidet die Ladezeit deiner Website, was auch in Sachen Bilder SEO Minuspunkte einbringt.
-
Social Sharing: Biete den Nutzern die Möglichkeit, deine Bilder in den sozialen Netzwerken zu teilen.
-
User Signals: Messe, wie deine Besucher auf deine Bilder reagieren. Wird dein Bild angeklickt oder längere Zeit angesehen? Das sind wichtige User Signals, die auch für das Ranking relevant sind.
-
Mehrfachverwendung: Binde starke Bilder mehrfach auf deiner Website ein. Ähnlich wie bei einem für dich wichtigen Keyword erhöht das die Ranking Chancen. Natürlich immer vorausgesetzt, dass die Mehrfachverwendung sinnvoll ist und in den Kontext passt.
-
Image Sitemap: Wenn du sehr viele Bilder verwendest, was auf die meisten Online Shops zutrifft, erstelle eine eigene Sitemap für deine Bilder, die es dem Googlebot leichter macht, diese zu indexieren.
-
Bildunterschrift: Verstehe dein Bild als Headline, welche mit einer passenden Bildunterschrift noch unterstrichen und genauer definiert werden kann.
-
Bildkontext: Das direkte Umfeld, in dem dein Bild eingebettet ist, spielt eine tragende Rolle. Passt der umgebende Text sowie die Überschrift des Absatzes zum Inhalt des Bildes?
-
Themenkonsistenz: Gerade bei der Nutzung von Stock-Fotos solltest du auf die Themenkonsistenz des Bildes achten. Wurde das Bild bereits auf anderen Seiten verwendet, ist das an sich nicht tragisch. Wurde es allerdings in Verbindung mit völlig verschiedenen Themen genutzt, hat das einen schwerwiegenden Nachteil für das Ranking, da Google das Bild keinem spezifischen Themenspektrum zuordnen kann.
SSL Zertifikat
Ein SSL Zertifikat und damit der verschlüsselte “https” Standard für eine Website ist auch aus SEO Sicht ein wichtiges Kriterium, denn sicher verschlüsselte Seiten werden von Google im Ranking bevorzugt. Bei nicht verschlüsselten Seiten, welche noch mit “http” aufgelöst werden, gelangen Besucher außerdem immer häufiger auf einen vom Browser ausgelieferten Warnhinweis und können die entsprechende Website erst nach dem Hinzufügen einer Ausnahmeregel besuchen. Das verunsichert nicht nur den Besucher, sondern sorgt auch für eine schlechtere Absprungrate sowie “back to SERPs Rate” (zurück zu den Suchergebnissen). Zudem ist ein SSL Zertifikat für E-Commerce Seiten gesetzlich verpflichtend.
Canonical Tags
Canonical Tags sind die von Google bevorzugte Methode, um der Suchmaschine mitzuteilen, welche Version einer Domain oder einer Seite als Standard bzw. Hauptseite zu betrachten ist und entsprechend bevorzugt behandelt und indexiert werden soll. Die Standardressourcen (URLs der Hauptdomain) sollten auf sich selbst verweisen, andere Domains mit gleichem Content (z.B. “http” statt “https” oder ohne “www” statt mit) sollten auf die entsprechenden Standardressourcen verweisen. Mit einer ähnlichen Canonical Struktur kann zum Beispiel auf das mobile Pendant oder auf eine andere Sprachversion der jeweiligen Seite verwiesen werden. Durch Canonical Tags lassen sich Fehler wie Duplicate Content oder falsche Verlinkungen vermeiden.
International SEO & Geotargeting
Wenn eine Website in mehreren Sprachen bzw. für mehrere Länder erstellt werden soll, stehen Webmaster häufig vor der Frage, in welcher Form das Geotargeting umzusetzen ist. Sollen die verschiedenen Länderversionen a) auf einer eigenen Top Level Domain (TLD) ausgeliefert werden (isemo.de, isemo.com, isemo.at) oder b) in einem Unterverzeichnis der eigentlichen Website (isemo.de/de, isemo.de/en, isemo.de/at) oder c) auf einer Subdomain (en.isemo.de, at.isemo.de)? Einiges spricht für die TLDs, da Nutzer sowie Google diesen gleichermaßen am meisten vertrauen und dadurch Vorteile in Sachen User Experience (UX) sowie SEO entstehen. Allerdings bedeutet eine Umsetzung auf TLD-Ebene auch den größten Aufwand, da z.B. das Linkbuilding für jede Domain individuell konzipiert werden sollte. Denn die Linkgeber der jeweiligen TLD sollten möglichst aus dem gleichen Sprachumfeld kommen.
Egal für welche Variante du dich entscheidest, in allen drei Fällen solltest du ahreflang Tags auf allen Seiten integrieren und außerdem die passende Länderausrichtung in der Google Search Console hinterlegen. Werden Google die verschiedenen Sprachversionen einer Website, durch die Einbindung des ahreflang-Attributs, nicht erkenntlich gemacht, entsteht dadurch ein großes Fehlerpotenzial. Inhalte in verschiedenen Sprachen werden unter Umständen der Hauptseite zugewiesen, Keywords der Zweitsprache werden dem Inhalt der Hauptsprache zugeordnet und verwässern so das Ranking auf Google oder Nutzern wird in den Suchergebnissen nicht die richtige Sprachversion ausgeliefert.
Crawling / Indexierung
Der Google Algorithmus crawlt jede Website im Internet täglich. Dabei ist es wichtig zu beobachten, welche Inhalte der Googlebot crawlt, wie lange er benötigt, um die gesamte Website zu indexieren und wie viel Zeit er durchschnittlich braucht, um eine Seite herunterzuladen. Im Idealfall crawlt der Bot mindestens so viele Seiten, wie die Website insgesamt aufweist, wobei fehlerhafte, unwichtige oder sensible Seiten der Website sowie Paginationsseiten erst gar nicht zum Crawling bzw. zur Indexierung freigegeben werden sollten. Geben die Crawling Statistiken Anlass zur Besorgnis, weil das Crawling zum Beispiel zu lange dauert, zu viele Peaks nach oben oder unten aufweist oder die Entwicklung negativ verläuft, sind entsprechende Optimierungen durchzuführen, um das begrenzte Crawl-Budget möglichst effizient zu nutzen.
Pagination / PRG Pattern
Das Aufkommen von Paginationsseiten, die zum Beispiel durch eine Filterauswahl in einem Online Shop entstehen können, bringt viele negative SEO Auswirkungen mit sich. Egal ob Duplicate Content, interner Linkfluss oder Crawling – Paginationsseiten haben auf viele Ranking Faktoren einen schlechten Einfluss. Nun gibt es verschiedene Möglichkeiten, dem entgegen zu wirken. Zum Beispiel durch entsprechende Einträge in der robots.txt oder durch den Einsatz der Meta Robots Tags “noindex” und “nofollow”. Der wahrscheinlich effektivste Weg ist allerdings die Technik der Linkmaskierung in Form von PRG Pattern (Post-Redirect-Get-Patterns). Mit diesem Entwicklungsansatz wird Duplicate Content vermieden und das Crawlbudget nachhaltig entlastet.
Datenvolumen
Zu große Datensätze, darunter Bilder aber auch Skripte, verhindern nicht nur eine schnelle Ladezeit, sondern auch die saubere Indexierung. Crawl Budget wird unnötig verschwendet, Besucher springen schneller ab, Suchmaschinen bewerten die Performance negativ, Conversion Rates gehen nach unten. Google empfiehlt eine Datengröße von nur 100kb pro Seite, ein Wert der aktuell kaum realisierbar ist. Trotzdem sollte eine Seite die Größe von 1MB nicht überschreiten, um SEO technisch nicht negativ ins Gewicht zu fallen.
Cloaking / Rendering
Eine Website sollte so programmiert sein, dass der Googlebot die Seite genauso sieht wie ein Besucher. Ist dies nicht der Fall, weil zum Beispiel blockierte Ressourcen das korrekte Rendering verhindern, kann der Googlebot die Seite nur auf Grundlage dieser “falschen” Sicht bewerten und wird wahrscheinlich zu einem negativeren Ergebnis kommen. Unter Umständen legt Google diese unterschiedliche Auslieferung der Website auch als Cloaking aus, also als absichtlichen Versuch, die Suchmaschine zu täuschen. Für Cloaking werden Website-Betreibern nicht selten Penaltys ausgesprochen, die im schlimmsten Fall eine temporäre Verbannung aus dem Google Index zur Folge haben.
Blockierte Ressourcen
Früher war es gang und gäbe beispielsweise bestimmte CSS & Javascripte für Suchmaschinen zu blockieren. Heute werden solche Sperren von Google in der Regel negativ bewertet, weil diese unter Umständen das korrekte Rendering einer Website verhindern.
User Signals
Neben allen technischen sowie inhaltlichen SEO Faktoren spielt natürlich auch das Feedback der Besucher eine wesentliche Rolle für die Bewertung einer Website, auch wenn diese User Signals kein offizieller Ranking Faktor sind. Dabei steht vor allem der qualifizierte Traffic einer Website im Fokus. Weniger die quantitative Menge an Besuchern ist entscheidend, sondern vielmehr deren Interaktionen auf der Seite. Eine hohe Bounce-Rate (Absprungrate) oder sehr kurze Verweil- bzw. Besuchsdauer sprechen in der Regel für ein geringes Interesse der Besucher und sollten deshalb möglichst optimiert werden. Wobei diese Werte immer differenziert betrachtet und nicht überbewertet werden sollten. Denn nur wenn du beispielsweise die optimale Besuchsdauer all deiner Seiten kennst, die durchaus recht kurz ausfallen kann, kannst du aus dem tatsächlichen Durchschnittswert auch eine aussagekräftige Erkenntnis gewinnen.
404 Fehler
404 Fehler werden gemeldet, wenn eine intern oder extern verlinkte Seite nicht mehr erreichbar ist. Das ist ärgerlich für den Besucher, entsprechend negativ wertet Google den für eine nicht auffindbare Seite ausgegebenen Code 404.
Flash Check
Flash Inhalte, die lange Zeit Standard und bis 2016 noch sehr verbreitet waren, werden auf mobilen Endgeräten gar nicht mehr dargestellt und mittlerweile von den meisten Internet Browsern blockiert. In Flash programmierte Inhalte sind für die meisten Besucher also nicht sichtbar und werden von Google dementsprechend negativ bewertet.
MIME Type
Der Mime-Type teilt dem Googlebot mit, welcher Dateityp sich hinter einer URL verbirgt, zum Beispiel “html” oder “pdf”. Fehlt diese Angabe, muss der Bot mehr Aufwand betreiben, um an die gewünschten Informationen zu kommen. Dadurch verzögert sich die Indexierung, Crawl Budget wird unnötig verbraucht und entsprechend negative SEO Effekte kommen zum Tragen.
Datenschutz
Der Datenschutz ist zwar kein offizieller Ranking Faktor, sollte von allen Website-Inhabern aber gesetzeskonform umgesetzt werden. Eine separat ausgewiesene Datenschutzerklärung ist Pflicht, auch deren notwendige Inhalte sind klar formuliert. Dies gilt ebenso für das Impressum. Bei Nichtberücksichtigung können Abmahnungen die Folge sein. Auch die Verwendung von Cookies sollte auf der Startseite ausgewiesen werden. Um auf der rechtlich sicheren Seite zu sein, empfiehlt sich zudem das Einholen der Einwilligung der Besucher.
Website Relaunch
Beim Relaunch einer Website werden oft zahlreiche SEO To Do’s übersehen, was sich negativ auf die Sichtbarkeit in der Google Suche auswirkt und hart erkämpfte Top Rankings gehen nicht selten verloren. Einer der häufigsten Fehler ist das Auslassen von notwendigen 301 Redirects. Denn beispielsweise externe Links verweisen nach wie vor auf Inhalte der alten Seite, welche nach dem Relaunch häufig unter einer anderen URL oder gar nicht mehr erreichbar sind. Werden für solche Fälle keine Weiterleitungen eingerichtet, entstehen etliche 404 Fehler. Diese führen Besucher in Sackgassen und werden von der Suchmaschine entsprechend negativ bewertet.
Dabei spielt auch die Art des Redirects eine wesentliche Rolle. Werden einfach sämtliche Inhalte auf die neue Startseite weitergeleitet, wertet Google das unter Umständen als “Soft 404” Fehler. Wichtig ist nämlich auch die inhaltliche Relevanz. Lautete beispielsweise die alte Seite zum Thema Suchmaschinenoptimierung “isemo.de/seo/” und nach dem Relaunch “isemo.de/suchmaschinenoptimierung/”, sollte der Redirect zu dieser themenverwandten Seite eingerichtet werden und nicht auf die zu unspezifische Startseite.
(Core) Web Vitals
Im Mai 2021 teilte Google offiziell mit, dass die Core Web Vitals als Rankingfaktoren mit in die Such-Algorithmen aufgenommen werden. Somit unterstützen die Core Web Vitals den Rankingfaktor deines Unternehmens. Doch was überhaupt sind Core Web Vitals? Wie unterscheiden sich Core Web Vitals zu den Web Vitals? Wie funktionieren sie und welchen konkreten Einfluss haben sie auf die Suchmaschinenoptimierung? All das und noch mehr erfährst du hier.
Was sind Core Web Vitals?
Core Web Vitals geben einige wichtige Kennzahlen an, die Google analysiert und die für alle Website-Betreibenden sehr relevant sein können. Laut Google bestehen Core Web Vitals aus „einer Reihe realer, nutzerzentrierter Metriken, die Schlüsselaspekte der Nutzererfahrung einer Website quantifizieren“.
Mit den Kennzahlen kannst Du als Betreiber einer Webseite mehr über die Benutzererfahrung deiner Kunden herausfinden. Google misst, wie gut deine Webseite bei den Besuchern ankommt. Wenn ein Kunde deine Webseite aufruft, dauert es meistens nur wenige Sekunden, bis der Kunde sich entschieden hat, ob die Webseite seine Aufmerksamkeit erhält oder nicht. An dieser Stelle kommen die Web Vitals ins Spiel, welche das Nutzererlebnis deiner Website analysieren. Mit den Werten kannst du somit dein Google-Ranking optimieren.
Google analysiert folgende zentrale Frage: Was muss deine Webseite können oder bieten, damit das Erlebnis deiner Kunden so positiv wie möglich ausfällt? Um diese Frage zu beantworten, spielen folgende drei Kennzahlen eine entscheidende Rolle:
Largest Contentful Paint (LCP):
Hier geht es um die Geschwindigkeit deiner Webseite. Die Web Vitals prüfen die Ladezeit deiner Seiten. Sollte diese schlechter abschneiden als die bei der Konkurrenz, erfüllt deine Webseite nicht die hohen Standards, die Google verlangt. Die Ladezeit trägt maßgeblich zur Zufriedenheit deiner Kunden bei. Je länger die Zeit ist, bis die Webseite reagiert, desto schlechter fällt auch die Bewertung bei dieser Kennzahl aus. Bis 2,5 Sekunden ist es ein guter Wert, ab 4 Sekunden wurde der Test nicht bestanden.
Cumulative Layout Shift (CLS):
Hier geht es um die visuelle Stabilität des Inhalts auf deiner Webseite, nachdem sie fertig geladen wurde. Ist das Layout konsistent, oder springen Elemente zwischendurch umher? Es gibt Webseiten, besonders in der mobilen Version, indem sich bspw. die Navigation im letzten Moment noch einmal verschiebt. Dies kann sich negativ auf die Nutzererfahrung auswirken. Werte bis 0,1 sind gut, ab 0,25 wurde der Test nicht bestanden.
First Input Delay (FID):
Hier wird die Zeit zwischen dem Aufruf der Seite und dem Zeitpunkt, ab dem die Seite auf Interaktion des Nutzers reagiert, gemessen. Die erste Eingabeverzögerung ist eine wichtige, nutzerorientierte Kennzahl für die Messung der Reaktionsfähigkeit der Ladevorgänge. Eine niedrige FID (bis 100 Millisekunden) stellt sicher, dass die Seite verwendbar ist.
Wie werden die Core Web Vitals gemessen?
Die Core Web Vitals werden in zwei unterschiedliche Bereiche gemessen. Wir unterscheiden zwischen den Labordaten (LCP und CLS) und den Feld-Daten (FID). Um diese Werte zu messen, hat uns Google viele nützliche Tools an die Hand gegeben. So können die Core Web Vitals bspw. mit der Search Console, den PageSpeed Insights, dem Chrome UX Dashboard oder auch mit Lighthouse gemessen werden.
Jedoch stehen nicht für alle URLs immer ausreichende Daten zur Verfügung. Wenn dem so ist, schätzt Google die Werte dieser Seiten auf Grundlage der gemessenen Daten ähnlicher Seiten (der gleichen Domain), für die ausreichende Daten ermittelt werden können.
Welchen Einfluss haben die Werte auf SEO?
Die Nutzererfahrung wird für SEO ein immer wichtigerer Rankingfaktor. Die Einführung der Core Web Vitals heißt aber nicht, dass sie Seite mit den besten Werten automatisch weit oben in der Suchmaschine steht. Nach wie vor sind der Content und andere Faktoren wie Keywords wichtiger als bspw. die Seitenladegeschwindigkeit.
Sollten jedoch zwei Webseiten bei allen Faktoren gleich liegen, kann eine langsame Webseite Nachteile beim Ranking haben. Seitenbetreiber sollten das Page Experience Signal bei der SEO-Optimierung daher berücksichtigen, aber nicht das komplette Augenmerk darauf richten.
Wie optimiere ich Web Vitals?
LCP optimieren
- Antwortzeit des Servers optimieren: Überprüfe, ob der Server auf dem neuesten Stand der Technik ist. Kann die Leistung eventuell verbessert werden? Prüfe auch, ob der Server aufwändige Anfragen verarbeiten muss, die viel Zeit in Anspruch nehmen. Idealerweise sollte der Server in der Nähe des Nutzers stehen.
- Entferne unbenutztes oder unnötiges HTML, CSS und Java Script
- Ladezeiten für Bilder, Videos etc. optimieren: Das Laden von Bildern, Videos und anderen Inhalten hat einen direkten Einfluss auf die LCP. Die nötigen Maßnahmen bei zu großen Dateien sind:
-
-
- Bilder optimieren und verkleinern
- Stelle Bilder in modernen Formaten zur Verfügung: Ideal sind beispielsweise JPEG 2000, JPEG oder WebP
- Responsive Bilder verwenden
- Textdateien komprimieren
-
FID optimieren
- Reduziere die Laufzeit von JavaScript. Alles über 50 Millisekunden ist zu lang. Lade die Scripte am besten nur auf Seiten, auf denen diese benötigt werden. Des Weiteren empfiehlt es sich, lange JavaScript-Tasks aufzusplitten.
- Identifiziere und optimiere Thread-blockierende Elemente, um die Time to Interactive (TTI) zu erhöhen.
- Überprüfe deine Plugins. Brauchst du alle Plugins auf deiner Webseite? Installiere nur die Plugins, die du wirklich benötigst. Umso mehr installierte Plugins, desto mehr Arbeit für den Browser.
CLS optimieren
- Füge bei Bildern, Videos, Banner und Anzeigen immer Angaben zu den Dimensionen hinzu. Ein häufiger Fehler ist es, dass Bilder etc. ohne feste Größenangabe hochgeladen werden. Dies kann falsche Wiedergaben der Elemente zur Folge haben.
- Vermeide dynamisch eingefügte Inhalte im oberen Bereich der Seite
- Vermeide extern geladene Widgets
Unterschiede zu Web Vitals
Trotz engen Zusammenhangs, wird grundsätzlich zwischen Web Vitals und den Core Web Vitals unterschieden. Die Core Web Vitals sind eine Teilmenge der Web Vitals. Zu den Web Vitals gehören zusätzlich zu den oben genannten Core Web Vitals die folgenden Kennzahlen:
- Time to First Byte (TTFB): Gibt die Zeitspanne an, bis der Browser das erste Byte der Seiteninhalte erhält. Es wird empfohlen, dass die Zeit bis zum ersten Byte weniger als 600 Millisekunden betragen sollte.
- First Contentful Paint (FCP): Gibt die Zeitspanne zwischen dem Start des Ladens einer Webseite und dem Erscheinen der ersten Inhalte auf dem Bildschirm an. Hier empfehlen wir, dass der erste inhaltsreiche Anstrich unter 1000 Millisekunden gehalten werden sollte.
- Total Blocking Time (TBT): Misst die Zeitspanne zwischen dem First Contentful Paint (FCP) und der Time to Interactive (TTI). Damit können bspw. Verzögerungen bei der Reaktion des Browsers gemessen werden.
- Time to Interactive (TTI): Die Zeit bis zur Interaktivität beschreibt die Dauer bis zum Laden der wichtigsten Sub-Ressourcen einer Seite, so dass die Seite auf Nutzereingaben antworten kann. Ein Wert bis zu 3,8 Sekunden ist zufriedenstellend, alles was drüber hinaus geht ist verbesserungsbedürftig.
Fazit
Fest steht, dass es immer schwerer geworden ist, die eigene Webseite auf organische Weise auf einen vorderen Platz im Ranking zu bringen. Mit den Core Web Vitals schafft Google eine neue Möglichkeit, um sich vom Wettbewerb zu differenzieren. Google hat angekündigt, dass Web Vitals in den Google-Suchalgorithmus einfließen werden. Allein für das positive Ranking deiner Webseite bei Google, solltest Du deshalb damit beginnen, die Benutzerfreundlichkeit mithilfe von Web Vitals zu überwachen und diese zu optimieren. Aber Achtung: Gute Werte der Core Web Vitals garantieren keine obere Platzierung in der Suchmaschine.
Weitere Themen aus dem Bereich der Suchmaschinenoptimierung: