Algorithmus

Ohne Suchmaschinen wie Google, Bing oder Startpage könnten wir uns im Internet kaum orientieren. Und letztlich sind auch Plattformen wie YouTube, Instagram oder Pinterest ebenfalls nichts weiter als spezialisierte Suchmaschinen. Bereits in den frühen Tagen des Internets waren schon so viele Daten online verfügbar, dass auch der damals eher kleine Nutzerkreis nicht ohne spezielle Such- und Darstellungsprogramme auskam. Das war die Geburtsstunde der Browser und der Suchmaschinen. Google ist dabei eher ein Spätstarter, denn zuvor gab es bereits Suchmaschinen wie Altavista, Lycos oder Yahoo, von denen heute nur noch die Letztere aktiv ist.

Was ist ein Suchalgorithmus?

Hinter allen Suchmaschinen stecken Algorithmen, also mathematisch formulierte Lösungswege für vorher definierte Aufgaben. Jeder Algorithmus besteht aus einer endlichen Zahl einzelner Lösungsschritte. Man kann sie in Computerprogramme einbauen, aber auch in normaler menschlicher Sprache formulieren. Der Suchalgorithmus durchsucht nun einen vorher festgelegten Suchraum nach Objekten oder Mustern mit vorgegebenen Eigenschaften, also etwa in einem Bibliothekskatalog nach Literatur über den Siebenjährigen Krieg oder im Internet nach Bildern von Pamela Anderson (oder umgekehrt).

Google hat seine früheren Konkurrenten weit hinter sich gelassen und jüngst das neueste Update seines Suchalgorithmus ausgespielt. Für Webmaster und Seitenbetreiber ist es allerdings immer wieder eine Herausforderung, dafür zu sorgen, dass sie mit ihren Anliegen und Angeboten für die Webnutzer sichtbar werden. Durch überlegte Suchmaschinenoptimierung der eigenen Seiten lässt sich das erreichen. Jedoch achten die Verantwortlichen bei Google eher darauf, den Nutzern gute und vor allem ihren Suchanfragen entsprechende Inhalte anzubieten. Außerdem passen sie den Suchalgorithmus immer wieder an die sich wandelnden Gegebenheiten im Netz an.

Wie Google seinen Algorithmus erfand

Googles Suchalgorithmen bestehen aus komplexen Formeln, die Hunderte von Variablen umfassen. Sie werden ständig überarbeitet und verbessert; allein 2018 nahm Google mehr als 3200 kleinere und größere Änderungen vor. Diese Modifikationen haben viele Gründe. Manchmal führt Google neue Features wie die Toolbar ein oder versucht, Ranking-Probleme zu beheben. Hinzu kommen reguläre Updates und Modifikationen, für die sich Tiernamen eingebürgert haben. Die bekanntesten darunter heißen Panda, Penguin und Hummingbird (siehe unten).

In den 1990er-Jahren entwickelten die beiden Google-Gründer Larry Page und Sergej Brin den nach Page benannten PageRank-Algorithmus. Er wurde zur Grundlage für den Erfolg des Unternehmens. Der Algorithmus bewertete zum ersten Mal Seiten aufgrund ihrer Verlinkungsstruktur. Je mehr externe Links auf eine Website verwiesen, desto bedeutender stufte sie der Google-Algorithmus ein und desto höher platzierte er sie im Ranking. Dabei sortiert der Suchalgorithmus die Links nach ihrer Bedeutung, die sich wiederum an der Bedeutung der Website orientiert. Je mehr Webseiten von hohem Gewicht auf meinen Auftritt verweisen, desto höher ist seine eigene Bedeutung und desto besser wird er von Google eingestuft.

Für Seitenbetreiber ist der PageRank ein wichtiger Indikator für die Sichtbarkeit des Webauftritts. Außerdem können sie so die Wirksamkeit ihrer Maßnahmen zur Suchmaschinenoptimierung einschätzen. Die Informationen darüber finden sich in der Google-Toolbar und im Google-Verzeichnis. Hier wird ein Wert zwischen 0 und 10 angezeigt; außerdem lässt sich die Website auch als Graph darstellen.

PageRank hatte jedoch auch Nachteile. Weil Google seine Arbeitsweise veröffentlichte, begannen unseriöse Akteure mit sogenannter Black Hat SEO das System zu unterlaufen. Dazu gehörte Linktausch, das Betreiben von Linkfarmen und das Handeln mit Backlinks. Googles Updates dienten auch dazu, diese Missbräuche zu enttarnen. Bevor Googles Suchalgorithmen die Inhalte von Websites verstehen konnten, kamen auch solche ohne inhaltlichen Wert allein durch ihre Linkstruktur in den Suchergebnissen nach vorne.

Wie der Algorithmus von Google arbeitet

Heute verwendet Google gleich mehrere Algorithmen, um einzuschätzen, wie relevant die einzelne Webseite für eine bestimmte Suche ist. SEO-Verantwortliche müssen also nicht nur auf den Linkaufbau achten, sondern auf ein ganzes Bündel von Faktoren. Nicht nur die Linkstruktur geht in die Bewertung ein, sondern auch Inhalte, Formatierung und Vertrauenswürdigkeit.

Aufbau und Arbeitsweise der einzelnen Algorithmen hält Google geheim, um Missbrauch nach Möglichkeit auszuschließen. Zum Beantworten einer Suchanfrage zieht Google die verwendeten Suchwörter heran, den Standort des betreffenden Webnutzers und seine Sucheinstellungen. Andere Faktoren sind wiederum die Relevanz von Webseiten, die Sachkenntnis von Quellen und die Aktualität der Inhalte. Googles Suchvorgang selbst läuft über mehrere Stufen.

  • Wortanalyse – Im ersten Schritt versucht Google, möglichst genau zu verstehen, wonach ein Nutzer eigentlich sucht. Also analysiert die Suchmaschine die Bedeutung der Wörter, aus denen die Anfrage besteht. Sie erzeugt Sprachmodelle, um zu erkennen, welche Wörter sie im Google-Index suchen muss. Außerdem versucht sie, die Kategorie der gewünschten Informationen herauszufinden. Es macht einen Unterschied, ob der Nutzer einen präzisen Suchbegriff verwendet oder nach allgemeinen Informationen sucht. Außerdem erkennt der Aktualitätsalgorithmus anhand von Trendwörtern wie „Bundesliga-Ergebnisse“ oder „Kommunalwahlen 2020“, ob man nach aktuellen Informationen sucht.

  • Abgleich der Suchbegriffe – Der zweite Schritt besteht darin, nach Webseiten zu suchen, die zu den verwendeten Keywords passen. Dabei fragt der Algorithmus zunächst den Index ab und untersucht dann, wie häufig die Suchwörter in den Inhalten einer Seite auftauchen. Hinzu kommt die Suche nach Hinweisen, wie relevant die Ergebnisse für die Suchanfrage sind. Der Suchalgorithmus stellt auch fest, in welcher Sprache die Seiten im Netz stehen und ob sie in der gleichen Sprache wie die Anfrage verfasst sind.

  • Ranking nützlicher Websites – Google nutzt Algorithmen, um die jeweils passenden Informationen zu finden und zu gewichten. Diese nutzen eine Vielzahl von Kriterien, angefangen von der Aktualität über Häufigkeit des Suchbegriffs bis hin zur Nutzerfreundlichkeit einer bestimmten Website. Die Vertrauenswürdigkeit einzelner Auftritte ermittelt Google, indem es nach Seiten sucht, die Nutzer für ähnliche Fragen aufrufen. Sind diese Seiten untereinander verlinkt, ist das zunächst mal ein positives Signal. Allerdings gibt es auch Algorithmen, die Spamseiten aufspüren. Seiten, die gegen Googles Richtlinien für Webmaster verstoßen, werden aus den Suchergebnissen entfernt

  • Die besten Suchergebnisse – Bevor Google die Suchergebnisse ausspielt, analysieren die Algorithmen, ob die gefundenen Informationen zueinander passen. So könnte es zum Beispiel sein, dass zu viele Ergebnisse auf einer zu strikten Auslegung des Keywords basieren. Außerdem werten die Algorithmen aus, ob das Ergebnis für alle Nutzer sichtbar ist, also etwa in allen Browsern und auf den verschiedenen Endgeräten gleich gut angezeigt wird. Google stellt hier mit PageSpeed Insights für Webmaster Hilfen bereit. Eine ähnliche Möglichkeit bietet übrigens auch webpagetest.org.

Googles Suchalgorithmen: Die wichtigsten Updates

Im Laufe seiner mittlerweile rund 20-jährigen Unternehmensgeschichte hat Google seine Suchalgorithmen immer wieder verfeinert und angepasst. So wird die PageRank-Technologie zwar intern weiterhin verwendet und weiter entwickelt. Aber seit Frühjahr 2016 hält Google alle Daten unter Verschluss. Ein weiterer Einschnitt war das sogenannte Mobile Update von April 2015, mit dem Google begann, Seiten besser zu bewerten, wenn sie auch für mobile Endgeräte ausgelegt waren. Im Mai 2018 ging der Suchmaschinenriese dann einen Schritt weiter und rollte den Mobile First Index aus.

  • Hummingbird wurde 2013 fester Bestandteil von Googles Core-Algorithmus. Vor Hummingbird spielte Google Suchergebnisse ausschließlich passend zum Keyword aus; seither kann die Suchmaschine auch den Sinnzusammenhang einer Sucheingabe erkennen. Damit begann das Zeitalter der semantischen Suche, die es heute ermöglicht, über Sprachassistenten im Netz zu suchen.

  • Mit dem Panda-Update von 2011 spielt Google Webseiten mit gutem und informativen Content nach vorne. Gleichzeitig straft Panda Seiten mit geringer Qualität ab und sanktioniert außerdem Auftritte, die mit unsauberer SEO versuchen, nach vorne zu kommen. Seit Google Panda ist die Menge an informativen und unverwechselbaren Inhalten entscheidender Ranking-Faktor. Der Algorithmus kann nun schlecht formulierte Texte, minderwertige Grafiken und Bilder oder einander ähnelnde Unterseiten erkennen. Weitere Faktoren, die das Ranking nach unten drücken können, sind nicht stimmige Metadaten, ein Zuviel an inhaltlich unpassender Werbung und eine kurze Verweildauer der Besucher. Google hat dieses Update stetig verbessert, zuletzt 2015.

  • 2012 spielte Google erstmals das Penguin-Update aus – und verbesserte es seither mehrfach. Die letzte Modifikation fand im Herbst 2016 statt. Penguin verhindert, dass Webauftritte durch Spam und Black Hat SEO ein vorteilhaftes Ranking erreichen. In seinen Webmaster Guidelines beschreibt Google, was es als Verstoß bewertet. Einer davon ist das Keyword Stuffing, bei dem Texte über ein vertretbares Maß hinaus mit Keywords angereichert werden. Auch abgestraft wird das Cloaking, also weiße Schrift auf weißem Grund, die zwar für Besucher nicht sichtbar ist, aber vom Crawler erfasst wird. Auch das manipulierte Verwenden von Backlinks führt zur Herabstufung.

  • Googles RankBrain-Update ist seit 2015 online. Bei dieser Gelegenheit fügte Google seiner Suchmaschine künstliche Intelligenz und maschinelles Lernen hinzu. Das Ziel hier ist, den Suchalgorithmus auch unbekannte Suchanfragen verarbeiten zu lassen. Durch Analyse der Sinnzusammenhänge zwischen Wörtern und einzelnen Formulierungen sollen sie bekannten Fragen und ihren Ergebnissen zugeordnet werden. Google speichert also jede neue Anfrage, um daraus zu lernen.

  • Von den sogenannten Phantom-Updates hat es in der Vergangenheit gleich mehrere gegeben. Sie sorgen in der SEO-Welt regelmäßig für Turbulenzen, denn Google kündigt sie nicht an, kommentiert sie nicht und bestätigt auch nicht alle. Man bemerkt sie in der Regel nur am Steigen und Fallen vieler Seiten im Ranking.

Mit MozCast lassen sich die vielen kleinen und großen Änderungen verfolgen. Der MozCast ist so etwas wie der Google-Wetterbericht. Er gibt für jeden Tag eine „Tagestemperatur“ an, die zeigt, wie stark Google seit dem Vortag am Algorithmus geschraubt hat. Je heißer und turbulenter das Wetter ist, desto mehr haben sich die Rankings verschoben.

So passen Sie Ihre SEO an Googles Updates an

Googles Richtlinien für Webmaster geben gute Anhaltspunkte für eine erfolgreiche SEO. Wer sich an die Regeln hält und seine Seiten gut pflegt, muss eigentlich keine Angst vor dem nächsten Update haben. Allerdings: Nach dem Update BERT  ist guter Content noch wichtiger als zuvor!

Google erkennt, wenn Besucher die Inhalte auf den Seiten nützlich und interessant finden. Das lässt sich durch gute Grafiken, Bilder und Videos weiter verstärken. Bei bestimmten Inhalten schaut Google sogar besonders genau hin. Wer also eine Themenseite mit Gesundheitsthemen betreibt, ist für die Suchmaschine jemand, der sensible Informationen verbreitet. Immerhin könnten durch irreführende Informationen Menschen zu Schaden kommen, und das will Google verhindern. Dasselbe gilt für Webauftritte aus dem Bereich Finanzen. Auch hier legt Google die Messlatte für Reputation und Glaubwürdigkeit besonders hoch. Hier ist also ausdrücklich redaktionelle Sorgfalt geboten.

Wichtig für das Ranking sind gute Verlinkungen, sowohl zwischen verschiedenen Unterseiten als auch zu qualitativ guten anderen Websites. Ebenso positiv wirken sich Links von derartigen Seiten zum eigenen Auftritt aus.

Black Hat SEO dagegen fällt früher oder später auf. So gut wie alle Google-Updates der letzten Jahre waren auch Reaktionen auf Tricks und fragwürdige Methoden. Mit dem Einsatz künstlicher Intelligenz sind Googles Chancen sogar noch größer geworden, unseriöse Seitenbetreiber aufzuspüren. Außerdem hat die Suchmaschine ein sehr langes Gedächtnis. Wer einmal abgestraft und in den Ranking-Keller geschickt wurde, braucht sehr lange, um sich wieder nach vorne zu arbeiten. Der Wechsel der Domain hilft hier auch nicht weiter, denn Google erkennt die abgestraften Seiten wieder. Schlechte Tricks lohnen also auf Dauer bestimmt nicht.

Newsletter abonnieren

Verpassen Sie keinen Blog-Eintrag mehr!

Abonnieren Sie unseren Blog und halten Sie Ihr Online-Marketing-Wissen aktuell!
Newsletter abonnieren

Mehr zum Thema Google

Erfahren Sie mehr zu Google für Unternehmen.

BERT

Was das neueste Google BERT-Update bewirkt und wie Sie darauf reagieren sollten.

Sprachsuche

Sie sind noch auf der Suche nach einem guten Domainnamen für die Sprachsuche?