Wer in Sachen Rankings als Texter heutzutage erfolgreich sein will, muss zumindest die Grundzüge der technischen Suchmaschinenoptimierung beherrschen. Es ist wie beim Auto – die Technik dahinter muss stimmen, damit es schnell ist. Übertragen auf einen Onlinetext: Wenn das Grundgerüst nicht stimmt, haben es selbst die besten Inhalte schwer, erfolgreich zu sein.

Ich musste mir im Laufe der Jahre ebenfalls SEO-Wissen aneignen. Als ich 2002 anfing professionell zu schreiben, war Suchmaschinenoptimierung für Online-Redakteure noch kein Thema. Google war gerade einmal vier und ließ sich noch leicht mit gekauften Links und gruseligem Keyword-Stuffing manipulieren. Da waren hochwertige Texte für die SEO-Szene kein Thema. Und ich als Redakteur brauchte SEO nicht, meine Beiträge rankten trotzdem. Das funktioniert heute nicht mehr.

Wer mit seinen Texten heute Suchmaschine und Leser zufriedenstellen will, sollte hinsichtlich der technischen Suchmaschinenoptimierung folgende Punkte auf dem Schirm haben:

  • Sprechende URLs
  • Schnelle Ladezeit
  • Tote Links vermeiden
  • Strukturierte Inhalte
  • Doppelte Inhalte vermeiden
  • Sichere Seiten
  • Sprechende URLs

Was eine URL ist muss ich wohl niemandem mehr erklären. Bei einer sprechenden URL sieht es vielleicht etwas anders aus. Sprechend wird sie, wenn sie anstatt Zahlen oder kryptischen Zeichen richtige Wörter enthält.  Die Suchmaschine erfasst dann leichter das Thema einer Seite und auch die Leser können mehr damit anfangen. Wobei  es wohl keinen direkten Einfluss auf das Ranking hat, ob die URL sprechend ist oder nicht, wie John Mueller von Google einmal in einer seine Fragestunden erwähnte.

Indirekt aber wahrscheinlich schon, da die Klickhäufigkeit in den Suchmaschinen zunimmt. Im Vergleich zu einer Website ohne sprechende Routen kann das der kleine Faktor sein, der für eine bessere Positionierung sorgt. Geben Sie Ihren Beiträgen daher besser aussagekräftige URLs. Zu lang darf sie jedoch nicht sein. Das Thema der Seite mit dem Hauptkeyword sollte darin enthalten sein. CMS-Systeme wie WordPress nehmen standardmäßig den Title der Seite. Es besteht aber auch die Möglichkeit, eine beliebig andere URL zu benennen.

Schnelle Ladezeit

Langsame Seiten mögen weder Suchmaschinen noch Ihre Leser. Es gibt zahlreiche Untersuchungen darüber, dass viele Besucher sofort wieder abspringen, wenn eine Website zu lange lädt. Hohe Absprungraten mit kurzer Verweildauer – das ist etwas, was Google gar nicht mag und entsprechend mit schlechteren Rankings belohnt.

Die Ladezeit einer Website wird von zahlreichen Faktoren beeinflusst, die ich hier nicht alle erläutern möchte. Das fängt beim Server an und hört bei schlechter Programmierung der Seite noch lange nicht auf. Generell gilt es, die Requests beim Seitenaufruf möglichst gering zu halten. Ein schlankes CSS und zusammengefasste JavaScript-Dateien helfen dabei. Für WordPress gibt es hierfür zum Beispiel Plugins. Ich muss zugeben, dass ich hier nur ungern rangehe. Ich habe immer Angst, dass ich mir dabei die Seite zerschieße.

Übergroße Bilder bremsen eine Website ebenfalls enorm aus. Gibt das Design der Seite lediglich eine maximale Breite von 800 Pixel her, braucht es keine 3000 Pixel breite Bilder. Es macht meist außerdem keinen Sinn, die Fotos in höchster Qualität abzuspeichern. In der Regel reichen 60 bis 70 Prozent aus, ohne dass ein sichtbarer Qualitätsverlust zu bemerken ist. Ich nutze zur Bildbearbeitung Photoshop Elements. Da lässt sich alles ganz einfach einstellen. Elements ist wesentlich günstiger als das Profitool und reicht für Amateure mehr als aus.

Tote Links vermeiden

Tote Links sind interne oder auch externe Links, die das ursprüngliche Linkziel nicht mehr erreichen. Im schlimmsten Fall landet der Leser auf einer 404-Fehlerseite und ist erst einmal sauer. In der Regel auf Sie, weil Sie Ihre Seite nicht richtig pflegen.  Bei externen Linkzielen haben Sie natürlich keinen Einfluss, wenn die Seite gelöscht oder umbenannt wird. Es sieht trotzdem doof aus. Und wirkt sich eventuell auf die Rankings der Seite aus, wenn zu viele der broken Links auf der Seite rumgeistern.

Bei großen Websites lassen sich die toten Links kaum mehr per Hand aufspüren. Hierfür gibt es sogenannte Link-Checker. Es gibt kostenlose und kostenpflichtige Checker, manchmal sind sie in SEO-Tools integriert.

Sie sollten jedoch nicht nur die ausgehenden Links, sondern auch die eingehenden Backlinks im Auge behalten. Verlinkt jemand auf Ihre Seite, ist das ein gutes Zeichen. Allerdings nur, wenn der Link nicht ins Leere läuft. Zum Beispiel, weil der Inhalt gelöscht wurde oder mittlerweile unter einer anderen URL zu finden ist. Hier sollten Sie eine sogenannte 301-Weiterleitung zur neuen Seite oder einem ähnlichen Inhalt einrichten.

Strukturierte Inhalte

Struktur auf der Seite ist enorm wichtig – das gilt für Texte wie für die Daten gleichermaßen. Strukturierte Inhalte helfen den Suchmaschinen, die Seite schneller zu lesen und zu verstehen. Und auch die Leser bleiben länger bei der Stange, wenn sie sich nicht durch einen Wust an Buchstaben kämpfen müssen, die einfach aneinander gereiht wurden.

Fangen wir mit dem an, was Redakteure sicher mehr im Blut liegt: dem Text. Hier sollte jedem klar sein, dass der „normale“ Leser die Seite erst einmal oberflächlich scannt. Gefällt ihm, was er sieht, bleibt er länger. Gibt es nix zu scannen, ist er schnell wieder weg. Gescannt werden Überschriften, hervorgehobene Textabschnitte oder Aufzählungen. Oder auch der erste Absatz. Wer nicht das Prinzip der umgekehrten Pyramide anwendet, verliert ebenfalls viele Leser.

Mit Hilfe von strukturierten Daten lassen sich sogenannte Rich Snippets in den Suchergebnissen bei Google und Co. generieren. Diese heben sich optisch von den herkömmlichen Snippets ab. Es bestehen daher größere Chancen, dass sie geklickt werden. Das Suchergebnis lässt sich jedoch nicht beliebig anreichern. Bei Rezepten, Produktbewertungen, Veranstaltungen oder Produktbeschreibungen klappt es jedoch ganz gut. Dafür müssen im Code der Seite bestimmte Teile gesondert formatiert werden, zum Beispiel mit Mikrodaten.

Bewährt hat sich eine Auszeichnung nach schema.org.

Doppelte Inhalte vermeiden

Sie fragen sich vielleicht, warum es die doppelten Inhalte bei mir in die technische Suchmaschinenoptimierung geschafft haben. Ganz einfach, häufig sind es technische Fehler, die zu doppelten Seiten führen. Wenn die Website sich zum Beispiel mit und ohne www. aufrufen lässt. Und wenn es ganz doof läuft, dann auch noch unter http und https. Da braucht sich dann keiner wundern, dass die Beiträge in keinen Rankings auftauchen.

Ändern lässt sich das zum Beispiel durch 301-Weiterleitungen in der .htaccess. Das sieht bei einer Weiterleitung von http://eigene-seite.de/ zu http://www.eigene-seite.de/ dann folgendermaßen aus:

RewriteEngine On

RewriteCond %{HTTP_HOST} !^www.eigene-seite.de$

RewriteRule ^(.*)$ http://www.eigene-seite.de/$1 [R=301,L]

Doppelte Inhalte entstehen auch, wenn Beiträge auf verschiedenen Plattformen ausgespielt werden. Bei einem Onlineshop zum Beispiel im deutschen und österreichischen Shop. Hier hilft das hreflang-Tag im Quelltext. Es sagt Google, für welches Land der jeweilige Text gedacht ist. Allerdings ist es generell besser, für Österreich, Schweiz und Deutschland abgewandelte Texte zu verwenden.

Manchmal lassen sich doppelte oder fast gleiche Inhalte auf einer Website nicht vermeiden. Hier hilft dann das Canonical-Tag. Diese Angabe im Quelltext teilt Google mit, welche Seite die Quelle ist und welche Seiten nur Kopien davon. Google nimmt dann nur die Quelle in den Index auf. Die Canonical Angabe kann auch auf zwei verschiedenen Websites eingesetzt werden. Der Code im Head-Bereich der Seite kann dann folgendermaßen aussehen:

<link rel=“canonical“ href=“http://www.eigene-seite.de/unterseite.htm"/>

Problematisch sind außerdem Beiträge, die sich textlich zwar unterscheiden, aber das gleiche Thema behandeln. Google weiß dann nicht so richtig, welchen der Texte er bevorzugen soll. Denn prinzipiell soll laut Google jede Website nur einmal für ein Suchwort ranken. Klappt in der Praxis zwar nicht wirklich, dennoch ist es einfacher, gute Rankings zu erhalten, wenn jedes Thema nur einmal behandelt wird.

Das geht natürlich nicht immer, gerade große Onlineshops mit ihren Filternavigationen kommen hier häufig an ihre Grenzen. Die Auswahlmöglichkeiten hinsichtlich Farben, Herstellern oder Größen generieren unzählige fast gleiche Seiten. Hier muss jeder Shopbetreiber genau überlegen, welche und wie viele Seiten er von Google indexiert haben möchte. Als wir beim Onlineshop meines Arbeitgebers die Filternavigation eingeführt haben, sind die URLs geradezu explodiert und die Rankings gefallen. Erst als wir viele Seiten auf noindex gesetzt haben, ging es wieder aufwärts.

Sichere Seiten

Google sagt eigentlich nie etwas zu den Rankingfaktoren, bei https haben sie eine Ausnahme gemacht. Das machte mich von Anfang an skeptisch. Ich denke nämlich nach wie vor nicht, dass eine SSL-Umstellung bessere Rankings nachzieht. Und wenn es ein Faktor wäre, dann einer, der sich mit jeder Seite abschwächt, die auf https umgestellt wird. Spätestens wenn alle Seiten sicher sind, kann es dann kein Rankingfaktor mehr sein.

Für mich hat Google dies nur kommuniziert, um möglichst viele Seitenbetreiber zu einer SSL-Umstellung zu bewegen. Ich habe noch keiner meiner Seiten, sei es beruflich oder privat, positive Effekte beobachten können. Wie auch immer, das Thema „Sicherheit“ bewegt dann doch nicht die Massen wie das Thema „Rankings“. Was eigentlich schade ist. Aber so ist das eben. Letztlich zählt nur, dass viele Seiten umgestellt werden. Das gilt insbesondere für die Websites, die mit Kundendaten zu tun haben. Das geht schnell, ein Kontaktformular reicht hier aus. Und das haben die meisten auf ihrer Seite.

Die Umstellung auf SSL ist nicht besonders schwer, zumal es im Internet zahlreiche Anleitungen dafür gibt. Wie es genau funktioniert, hängt auch vom Provider ab. Als ich meine erste Seite umgestellt habe, musste ich mir ein Zertifikat kaufen. Mittlerweile bietet er auch die kostenlose Einbindung eines Let’s Encrypt-Zertifikats an. Das ist natürlich perfekt. Wichtig ist bei der Umstellung, dass alle internen URLs ebenfalls mit https aufgerufen werden. Bei WordPress machen hier die Bildpfade Probleme. Sie müssen in der Datenbank umgeschrieben werden. Zum Glück gibt es hierfür Plugins.