Ohne Suchmaschinen wie Google, Bing oder Startpage könnten wir uns im Internet kaum orientieren. Und letztlich sind auch Plattformen wie YouTube, Instagram oder Pinterest ebenfalls nichts weiter als spezialisierte Suchmaschinen. Bereits in den frühen Tagen des Internets waren schon so viele Daten online verfügbar, dass auch der damals eher kleine Nutzerkreis nicht ohne spezielle Such- und Darstellungsprogramme auskam. Das war die Geburtsstunde der Browser und der Suchmaschinen. Google ist dabei eher ein Spätstarter, denn zuvor gab es bereits Suchmaschinen wie Altavista, Lycos oder Yahoo, von denen heute nur noch die Letztere aktiv ist.
Was ist ein Suchalgorithmus?
Hinter allen Suchmaschinen stecken Algorithmen, also mathematisch formulierte Lösungswege für vorher definierte Aufgaben. Jeder Algorithmus besteht aus einer endlichen Zahl einzelner Lösungsschritte. Man kann sie in Computerprogramme einbauen, aber auch in normaler menschlicher Sprache formulieren. Der Suchalgorithmus durchsucht nun einen vorher festgelegten Suchraum nach Objekten oder Mustern mit vorgegebenen Eigenschaften, also etwa in einem Bibliothekskatalog nach Literatur über den Siebenjährigen Krieg oder im Internet nach Bildern von Pamela Anderson (oder umgekehrt).
Google hat seine früheren Konkurrenten weit hinter sich gelassen und jüngst das neueste Update seines Suchalgorithmus ausgespielt. Für Webmaster und Seitenbetreiber ist es allerdings immer wieder eine Herausforderung, dafür zu sorgen, dass sie mit ihren Anliegen und Angeboten für die Webnutzer sichtbar werden. Durch überlegte Suchmaschinenoptimierung der eigenen Seiten lässt sich das erreichen. Jedoch achten die Verantwortlichen bei Google eher darauf, den Nutzern gute und vor allem ihren Suchanfragen entsprechende Inhalte anzubieten. Außerdem passen sie den Suchalgorithmus immer wieder an die sich wandelnden Gegebenheiten im Netz an.
Wie Google seinen Algorithmus erfand
Googles Suchalgorithmen bestehen aus komplexen Formeln, die Hunderte von Variablen umfassen. Sie werden ständig überarbeitet und verbessert; allein 2018 nahm Google mehr als 3200 kleinere und größere Änderungen vor. Diese Modifikationen haben viele Gründe. Manchmal führt Google neue Features wie die Toolbar ein oder versucht, Ranking-Probleme zu beheben. Hinzu kommen reguläre Updates und Modifikationen, für die sich Tiernamen eingebürgert haben. Die bekanntesten darunter heißen Panda, Penguin und Hummingbird (siehe unten).
In den 1990er-Jahren entwickelten die beiden Google-Gründer Larry Page und Sergej Brin den nach Page benannten PageRank-Algorithmus. Er wurde zur Grundlage für den Erfolg des Unternehmens. Der Algorithmus bewertete zum ersten Mal Seiten aufgrund ihrer Verlinkungsstruktur. Je mehr externe Links auf eine Website verwiesen, desto bedeutender stufte sie der Google-Algorithmus ein und desto höher platzierte er sie im Ranking. Dabei sortiert der Suchalgorithmus die Links nach ihrer Bedeutung, die sich wiederum an der Bedeutung der Website orientiert. Je mehr Webseiten von hohem Gewicht auf meinen Auftritt verweisen, desto höher ist seine eigene Bedeutung und desto besser wird er von Google eingestuft.
Für Seitenbetreiber ist der PageRank ein wichtiger Indikator für die Sichtbarkeit des Webauftritts. Außerdem können sie so die Wirksamkeit ihrer Maßnahmen zur Suchmaschinenoptimierung einschätzen. Die Informationen darüber finden sich in der Google-Toolbar und im Google-Verzeichnis. Hier wird ein Wert zwischen 0 und 10 angezeigt; außerdem lässt sich die Website auch als Graph darstellen.
PageRank hatte jedoch auch Nachteile. Weil Google seine Arbeitsweise veröffentlichte, begannen unseriöse Akteure mit sogenannter Black Hat SEO das System zu unterlaufen. Dazu gehörte Linktausch, das Betreiben von Linkfarmen und das Handeln mit Backlinks. Googles Updates dienten auch dazu, diese Missbräuche zu enttarnen. Bevor Googles Suchalgorithmen die Inhalte von Websites verstehen konnten, kamen auch solche ohne inhaltlichen Wert allein durch ihre Linkstruktur in den Suchergebnissen nach vorne.
Wie der Algorithmus von Google arbeitet
Heute verwendet Google gleich mehrere Algorithmen, um einzuschätzen, wie relevant die einzelne Webseite für eine bestimmte Suche ist. SEO-Verantwortliche müssen also nicht nur auf den Linkaufbau achten, sondern auf ein ganzes Bündel von Faktoren. Nicht nur die Linkstruktur geht in die Bewertung ein, sondern auch Inhalte, Formatierung und Vertrauenswürdigkeit.
Aufbau und Arbeitsweise der einzelnen Algorithmen hält Google geheim, um Missbrauch nach Möglichkeit auszuschließen. Zum Beantworten einer Suchanfrage zieht Google die verwendeten Suchwörter heran, den Standort des betreffenden Webnutzers und seine Sucheinstellungen. Andere Faktoren sind wiederum die Relevanz von Webseiten, die Sachkenntnis von Quellen und die Aktualität der Inhalte. Googles Suchvorgang selbst läuft über mehrere Stufen.
Googles Suchalgorithmen: Die wichtigsten Updates
Im Laufe seiner mittlerweile rund 20-jährigen Unternehmensgeschichte hat Google seine Suchalgorithmen immer wieder verfeinert und angepasst. So wird die PageRank-Technologie zwar intern weiterhin verwendet und weiter entwickelt. Aber seit Frühjahr 2016 hält Google alle Daten unter Verschluss. Ein weiterer Einschnitt war das sogenannte Mobile Update von April 2015, mit dem Google begann, Seiten besser zu bewerten, wenn sie auch für mobile Endgeräte ausgelegt waren. Im Mai 2018 ging der Suchmaschinenriese dann einen Schritt weiter und rollte den Mobile First Index aus.
Mit MozCast lassen sich die vielen kleinen und großen Änderungen verfolgen. Der MozCast ist so etwas wie der Google-Wetterbericht. Er gibt für jeden Tag eine „Tagestemperatur“ an, die zeigt, wie stark Google seit dem Vortag am Algorithmus geschraubt hat. Je heißer und turbulenter das Wetter ist, desto mehr haben sich die Rankings verschoben.
So passen Sie Ihre SEO an Googles Updates an
Googles Richtlinien für Webmaster geben gute Anhaltspunkte für eine erfolgreiche SEO. Wer sich an die Regeln hält und seine Seiten gut pflegt, muss eigentlich keine Angst vor dem nächsten Update haben. Allerdings: Nach dem Update BERT ist guter Content noch wichtiger als zuvor!
Google erkennt, wenn Besucher die Inhalte auf den Seiten nützlich und interessant finden. Das lässt sich durch gute Grafiken, Bilder und Videos weiter verstärken. Bei bestimmten Inhalten schaut Google sogar besonders genau hin. Wer also eine Themenseite mit Gesundheitsthemen betreibt, ist für die Suchmaschine jemand, der sensible Informationen verbreitet. Immerhin könnten durch irreführende Informationen Menschen zu Schaden kommen, und das will Google verhindern. Dasselbe gilt für Webauftritte aus dem Bereich Finanzen. Auch hier legt Google die Messlatte für Reputation und Glaubwürdigkeit besonders hoch. Hier ist also ausdrücklich redaktionelle Sorgfalt geboten.
Wichtig für das Ranking sind gute Verlinkungen, sowohl zwischen verschiedenen Unterseiten als auch zu qualitativ guten anderen Websites. Ebenso positiv wirken sich Links von derartigen Seiten zum eigenen Auftritt aus.
Black Hat SEO dagegen fällt früher oder später auf. So gut wie alle Google-Updates der letzten Jahre waren auch Reaktionen auf Tricks und fragwürdige Methoden. Mit dem Einsatz künstlicher Intelligenz sind Googles Chancen sogar noch größer geworden, unseriöse Seitenbetreiber aufzuspüren. Außerdem hat die Suchmaschine ein sehr langes Gedächtnis. Wer einmal abgestraft und in den Ranking-Keller geschickt wurde, braucht sehr lange, um sich wieder nach vorne zu arbeiten. Der Wechsel der Domain hilft hier auch nicht weiter, denn Google erkennt die abgestraften Seiten wieder. Schlechte Tricks lohnen also auf Dauer bestimmt nicht.
Hallo Herr List,
vielen Dank für den schönen Überblick.
Ich gebe Ihnen grundsätzlich Recht, wenn Sie schreiben, dass Black-Hat SEO früher oder später auffliegt – auch ich selbst bin überhaupt kein Fan von Black-Hat Methoden. Allerdings muss man neidlos anerkennen, dass Black-Hat SEO immer noch funktioniert (wenn auch nur kurzfristig).
Trotz des groß angekündigten Einsatzes von Künstlicher Intelligenz ist Google meiner Meinung nach immer noch genauso „dumm“ wie eh und je… Oder anders ausgedrückt: Google mag schlau sein, von wahrer Intelligenz kann aber nach wie vor keine Rede sein.
Dies wird auch deutlich, wenn man sich bewusst macht, dass Google immer noch extrem abhängig vom Faktor Backlinks ist, der mehr oder weniger leicht zu manipulieren ist.
Ihre Gedanken hierzu würden mich sehr interessieren.
Liebe Grüße,
Nicolas Perez-Diehl
Danke für Ihren interessanten Kommentar. Was KI betrifft, bin ich Ihrer Meinung. KI ist eben künstlich und am Ende des Tages nur so gut wie die Programmierer. Zurzeit eignet sich KI wirklich gut dafür, nach festgelegten Kriterien große Datenmengen zu analysieren. Bei echten Ermessensentscheidungen kommt KI schnell an seine Grenzen. Ein Beispiel dafür sind die chinesischen Kinder, die es geschafft haben, die Bilderkennung in Überwachungskameras auszutricksen, indem sie sich Karnevalsmasken aufgesetzt haben.
Google beschäftigt zwar ein Heer von Angestellten und externen Dienstleistern, aber jede Website und jeden Akteur im Netz sozusagen händisch zu überprüfen, ist ein Ding der Unmöglichkeit. Da bleibt dann nur, möglichst viel zu automatisieren und den Suchalgorithmus Schritt für Schritt ein bisschen schlauer zu machen.
Grüße,
Friedrich
Straft Google eigentlich auch Rechtschreibfehler und fehlende Kommata ab?! Dann müssten heutzutage sehr viele Webseiten im Keller landen…
Hallo Johanna,
aus meiner Sicht: Leider nein. Google geht davon aus, dass Tippfehler keinen Einfluss auf den Inhalt haben. Aber ich denke, ein Nutzer weiß fehlerfreie Texte zu schätzen.
Viele Grüße,
Friedrich