Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer lieblings Listung in den Ergebnissen und recht bald entstanden Einrichtung, die sich auf die Aufwertung professionellen.
In den Anfängen erfolgte die Aufnahme oft über die Übertragung der URL der passenden Seite in puncto divergenten Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Web Server der Anlaufstelle, wo ein 2. Anwendung, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu ähnlichen Seiten).
Die späten Modellen der Suchalgorithmen basierten auf Infos, die anhand der Webmaster eigenständig vorhanden wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Eindruck mit Essenz einer Seite, aber registrierte sich bald raus, dass die Einsatz er Hinweise nicht verlässlich war, da die Wahl der verwendeten Schlagworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Seiten bei spezifischen Suchen listen.[2] Auch versuchten Seitenersteller unterschiedliche Punkte binnen des HTML-Codes einer Seite so zu beeinflussen, dass die Seite richtiger in den Suchergebnissen aufgeführt wird.[3]
Da die neuzeitlichen Suchmaschinen im Netz sehr auf Kriterien angewiesen waren, die nur in den Koffern der Webmaster lagen, waren sie auch sehr unsicher für Schindluder und Manipulationen im Ranking. Um vorteilhaftere und relevantere Urteile in Resultaten zu bekommen, mussten sich die Inhaber der Suchmaschinen an diese Voraussetzungen anpassen. Weil der Erfolg einer Suchseiten davon abhängt, essentielle Suchergebnisse zu den inszenierten Keywords anzuzeigen, vermochten untaugliche Testurteile darin resultieren, dass sich die Benutzer nach anderen Varianten bei der Suche im Web umschauen. Die Lösung der Search Engines inventar in komplexeren Algorithmen beim Rangfolge, die Aspekte beinhalteten, die von Webmastern nicht oder nur schwierig beherrschbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Vorläufer von Suchmaschinen – eine Anlaufstelle, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch sonstige Suchmaschinen bezogen zu Beginn der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.