blog-icon
Mai 30, 2025

Wie Suchmaschinen funktionieren: Ein umfassender Leitfaden

Informationssuche ist eine Reihe aufeinanderfolgender Prozesse, die darauf abzielen, bestimmte Informationen anhand vorgegebener Kriterien bereitzustellen.

Das Suchkriterium ist die Informationsanfrage, die den Informationsbedarf des Nutzers an bestimmten Daten ausdrückt.

Der Suchprozess umfasst mehrere Schritte:

  • Formulierung der Informationsanfrage;
  • Bestimmung aller möglichen Datenquellen;
  • Extraktion von Informationen aus den gefundenen Datensätzen;
  • Darstellung der gewonnenen Informationen für den Nutzer zur Bewertung der Ergebnisse (Verhaltensfaktoren).

Suchergebnisse zeichnen sich durch Relevanz aus, also dem Grad der Übereinstimmung der gefundenen Daten mit der Suchanfrage, sowie durch Pertinenz – dem Verhältnis nützlicher Informationen zur Gesamtanzahl der präsentierten Ergebnisse.

Für nützliche Ergebnisse spielt die Formulierung der Suchanfrage eine entscheidende Rolle. In jeder Suchmaschine lassen sich Anfragen mit bestimmten Werkzeugen verfeinern, um den Suchbereich einzuschränken. Die Wahl der Suchmaschine beeinflusst ebenfalls maßgeblich die Art der angezeigten Informationen.

Im Allgemeinen basiert jede Suchmaschine auf einem ähnlichen Algorithmus. Sie besteht aus zwei Komponenten: einem Programm, das Informationen sammelt und indexiert, und einem Softwarekomplex, der Daten anhand der Nutzeranfrage auswählt und für die Ergebnisanzeige sortiert. Im Folgenden betrachten wir die einzelnen Teile der Suchmaschine genauer.

Informationssammlung und Indexierung

Ein Suchroboter ist ein Programm, das die Hauptfunktion der Suchmaschine erfüllt – die Suche nach neuen Datenquellen (Seiten). Da dieses Programm frei im Internet navigiert, wird es oft „Spider“ genannt. Das Prinzip des Spiders ist einfach: Er landet auf einer Seite, sucht dort nach Links zu anderen Seiten und besucht jede einzelne, wobei er seine Vorgehensweise wiederholt. Dabei indexiert der Bot (speichert wichtige Informationen über die Website in einer Datenbank) und sendet eine Kopie jeder gefundenen Seite an ein Archiv. Dabei gilt „jede“ Seite, die den Suchparametern entspricht. Bevor neue Seiten in den Index aufgenommen werden, werden sie auf Viren, technische Fehler und Plagiate geprüft. Minderwertige Seiten werden sofort aussortiert. Außerdem gilt: Je mehr Links eine Website hat (sowohl interne als auch externe), desto schneller wird sie indexiert.

Informationssammlung und Indexierung

Neben qualitativen Prüfungen gibt es auch quantitative Beschränkungen für die Aufnahme von Seiten in den Index. Suchmaschinen verfügen über begrenzte Ressourcen und können nicht alle Websites sofort oder innerhalb eines Monats durchsuchen. Deshalb hat jede Website ein sogenanntes „Crawling-Budget“ – die Anzahl der Seiten, die der Suchroboter auf einmal besuchen kann, sowie die maximale Zahl an indexierten Dokumenten von dieser Website. Bei großen Websites kann dies die Hauptursache für Verzögerungen bei der Aktualisierung des Index sein. Die effektivste Lösung ist in diesem Fall die Einrichtung einer sitemap.xml. Diese speziell erstellte Sitemap dient dazu, die Arbeit des Spiders zu lenken. In der Sitemap sollte angegeben werden, welche Seiten am häufigsten aktualisiert werden, was bei der Indexierung Priorität hat, welche Informationen der Suchroboter beachten soll und welche Seiten bereits geprüft wurden.

Die Indexierung der Seiten erfolgt nicht sofort, da der Suchroboter nicht das gesamte Web in Sekunden durchlaufen kann. Aktuell dauert der Indexierungsprozess meist 2–3 Wochen, für qualitativ hochwertige, nützliche und richtig optimierte Seiten kann er aber auch nur wenige Tage in Anspruch nehmen. Die Indexierung lässt sich in Tools wie der Google Search Console überprüfen.

Die Verkürzung der Indexierungszeit ist ein wichtiger Faktor für das Wachstum einer Website. Das Internet wächst ständig, während Suchmaschinen nicht im gleichen Tempo optimiert werden können. Daher wurde neben dem regulären Suchroboter ein sogenannter Fast Bot entwickelt.

Der Fast Bot ist ein Programm, das häufig aktualisierte Websites (Blogs, Nachrichtenportale, soziale Netzwerke etc.) indexiert. Dadurch können besonders frische Ergebnisse an oberster Stelle der Suchergebnisse angezeigt werden. Der Hauptunterschied zwischen dem regulären Bot und dem Fast Bot besteht darin, dass der Fast Bot keine Links berücksichtigt. Somit kann dieselbe Seite sowohl vom regulären Bot als auch vom Fast Bot indexiert werden.

Erstellung der Suchergebnisse

Betrachten wir den zweiten Teil der Suchmaschine am Beispiel von Google.

Nachdem der Nutzer seine Suchanfrage eingegeben hat, wird diese zunächst vom sogenannten „Load Balancer“ verarbeitet. Dieser verteilt die Anfragen automatisch auf verschiedene Servercluster, um die Rechenleistung effizient zu nutzen.

Im nächsten Schritt prüft das System, ob bereits fertige Ergebnisse im Cache (Speicher für häufig abgefragte Daten) vorhanden sind. Das erleichtert die Arbeit, da manche Anfragen bei bestimmten Ereignissen (wichtige Nachrichten, Werbekampagnen etc.) häufiger wiederholt werden, während andere, wie soziale Netzwerke, konstant populär bleiben.

Suchergebnisse werden für eine gewisse Zeit im Cache gespeichert, um bei Bedarf sofort abgerufen zu werden.

Danach beginnt die Metasuche. Hier wird ermittelt, um welche Art von Daten es sich bei der Anfrage handelt. Meist sind es Texte, aber viele Suchmaschinen können auch Bilder verarbeiten. Zudem werden Rechtschreibprüfungen durchgeführt und der geografische Standort der Anfrage bestimmt.

Auch der Typ der Suchanfrage wird bestimmt: kommerziell oder informativ. Dieser beeinflusst die Rangfolge der Ergebnisse. Bei einer informativen Anfrage, etwa „Eiscreme Zutaten“, erscheinen vorrangig Seiten mit nützlichen Informationen (ansprechender Content, natürliche Links etc.). Bei einer kommerziellen Anfrage wie „Eiscreme kaufen“ versucht die Suchmaschine, kommerzielle Seiten anzuzeigen.

Informationen zum Anfrage-Typ sind wichtig für die richtige Optimierung einer Website. Solche Daten lassen sich mit Tools wie Labrika ermitteln.

Suchmaschinen erkennen außerdem spezielle Anfragen, die Wörter wie „Bewertung“, „Download“, „Kaufen“ enthalten. Für diese Anfragen ist nicht nur das Vorhandensein der Schlüsselwörter wichtig, sondern auch die Möglichkeit, Aktionen durchzuführen („Download“, „Kaufen“) oder echte Bewertungen zu lesen. Wenn Wettbewerber beispielsweise tatsächlich Produkte oder Dienstleistungen verkaufen, reicht es meist nicht aus, nur das Wort „kaufen“ im Text zu verwenden. Je nach Anfrage können bestimmte Rankingfaktoren stärker gewichtet werden, z. B. Aktualität bei Nachrichten oder Markenname in der Domain bei markenbezogenen Suchanfragen.

Das System beginnt, Informationen für eine neue Ergebnisliste zu sammeln. Die Anfrage wird an die „Basis-Suche“ weitergeleitet. Dort wird der Suchmaschinenindex gespeichert, aufgeteilt in mehrere Teile und auf verschiedenen Servern verarbeitet. Die Verteilung auf mehrere Server reduziert die Last und beschleunigt die Suche. Außerdem erstellt jeder Server mehrere Kopien zur Sicherung der Daten.

Am Ende liefert die Basis-Suche die gefundenen Ergebnisse an die Metasuche zurück. Diese Antwort ist jedoch noch nicht endgültig. Nach Erhalt der Ergebnisse durchläuft Google zuerst Filter und bereitet dann die Ausgabe mit dem Algorithmus RankBrain vor.

Ein Filter ist ein Algorithmus mit bestimmten Anforderungen an Websites. Wenn ein Filter Verstöße entdeckt, kann die Suchmaschine Sanktionen verhängen: Ausschluss aus dem Index, Herabstufung oder Entfernung einzelner Seiten aus den Suchergebnissen.

Das Hauptziel der Filter ist die Verbesserung der Qualität der Suchergebnisse. Suchmaschinen-Filter werden ständig weiterentwickelt, um mehr Faktoren der Nützlichkeit zu berücksichtigen.

Bekannte Filter sind unter anderem:

  • Affiliate-Filter (Google);
  • Panda (Google);
  • Penguin (Google);

Diesen Filtern haben wir einen eigenen Artikel gewidmet.

Alle Filter zielen darauf ab, Spam und spezifische Mängel von Websites zu bekämpfen. Die wichtigsten Probleme sind dabei Einzigartigkeit des Contents, regelmäßige Aktualisierung und qualitativ hochwertige externe Links. Die Existenz von Filtern zwingt Optimierer dazu, mehr Wert auf Qualität, Inhalt und Design der Website zu legen, um in den Top-Positionen zu landen.

Im Anschluss erfolgt das Ranking der Ergebnisse durch den Algorithmus RankBrain. RankBrain wurde erstmals mit dem Suchfilter Hummingbird eingeführt. Ziel war es, die Suchqualität durch mehr Rankingkriterien zu verbessern.

RankBrain ist ein Machine-Learning-Algorithmus, der eine Ranking-Formel (Positionsverteilung) für Suchergebnisse erstellt. Er ermöglicht sehr komplexe Formeln mit Dutzenden von Gewichtungen, um die relevantesten Ergebnisse ganz oben zu platzieren. Besonders ist, dass RankBrain die Formel für verschiedene Arten von Anfragen individuell anpassen kann, ohne die Qualität für andere zu beeinträchtigen.

Suchroboter entdecken Millionen Seiten, jede auf Übereinstimmung mit der Anfrage zu prüfen und zu positionieren, würde viel Zeit kosten. RankBrain analysiert alle von der Basis-Suche gelieferten Seiten, bestimmt relevante Parameter für Texte und gewichtet diese. Anschließend sortiert er die Seiten absteigend nach Nützlichkeit. Dabei berücksichtigt der Algorithmus hunderte Faktoren (Besucherzahlen, Content-Einzigartigkeit, Linkanzahl usw.). Aktuell sind es etwa 800 Kriterien. Seit Einführung von RankBrain hat sich die Relevanz der Suchergebnisse deutlich verbessert, sodass Nutzer fast sofort die passenden Antworten erhalten. Geschwindigkeit ist dabei jedoch nicht das wichtigste Kriterium.

Wichtige Kriterien zur Bewertung einer Suchmaschine sind:

  • Genauigkeit: Wie gut stimmen die Ergebnisse mit der Anfrage überein? Je weniger falsche Seiten, desto besser. Hier haben Suchmaschinen kaum Probleme.
  • Vollständigkeit: Wie vielfältig sind die Ergebnisse? Bei mehrdeutigen Anfragen wie „Sura“ (Fluss, Stadt, Sportteam) versucht die Suchmaschine, die häufigsten Varianten abzudecken. Der Wettbewerb findet hier eher um die Top 3–5 Plätze statt, da andere Positionen mit Verzeichnissen, Karten, Wikipedia und ähnlichem belegt sind.
  • Nutzerzufriedenheit: Wird gemessen daran, ob Nutzer nach dem Besuch einer Seite zur Ergebnisliste zurückkehren. Bleiben sie weg, gilt das Ergebnis als passend. Die Suchmaschine merkt sich das und passt das Ranking per Machine Learning und menschlicher Beurteilung an. Beurteiler (Assessoren) bewerten, wie nützlich eine Seite ist. So wird die Ranking-Formel kontinuierlich verbessert, um schädliche oder unnütze Seiten auszuschließen.

Fazit

Nach dem Ranking werden den Suchergebnissen zusätzliche Informationen hinzugefügt: Karten, Adressen, allgemeine Angaben, nützliche Links, passende Anzeigen, Videos und Empfehlungen. So bieten Suchmaschinen vielfältige und relevante Ergebnisse an, was bei der Optimierung einer Website für hohe Platzierungen berücksichtigt werden sollte.

Kostenlose Testversion

Starten Sie jetzt Ihre kostenlose Testversion