Einfacher geht es nicht:

Als Vertragspartner und Kunde bietet Ihr geschützter Bereich im Kundencenter zahlreiche Funktionen, zum Beispiel:

  • Persönliche Daten ändern
  • Optionen zubuchen
  • Tarif wechseln
  • Auftragsstatus prüfen

Kunden Login

Analysieren

Wir analysieren Ihre Webseite und bieten Ihnen individuelle und spezialisierte Optimierungen.

Optimieren

Wir garantieren eine schnelle, fachgerechte, flexible und termintreue Projektabwicklung.

Profitieren

Wir wenden nur die Behandlungsmethoden an, welche den größten Erfolg versprechen.

Konzept

Bereits in den Anfängen der Suchmaschinen wurde das Potential erkannt, diese zur Vermarktung seiner eigenen Webseite zu verwenden, um sein Angebot an den interessierten Benutzerkreis zu vermitteln. Damit war das Rennen eröffnet, seine Internetpräsenz möglichst weit oben in den Ergebnislisten derSuchmaschinen bei den "besten" Suchwörtern zu positionieren. Viele Gerüchte ranken sich um jene Faktoren, die eine gute Platzierung ermöglichen. Im ersten Teil wird kurz auf die grundlegenden Funktionen der Erfassung von Webseiten in Suchmaschinen eingegangen. Der zweite Teil geht auf die Funktionsweise von Suchmaschinen ein, so wird auf die Funktion des Spider, des Indexer, des inverse Index und der Relevanzbewertung eingegangen. Abschließend folgt die Festlegung von Startseiten, Strukturen, Unterseiten und die Auswahl der richtigen Metatags.

1. Erfassung von Webseiten in Suchmaschinen

1.1 Suchmaschinen- gerechte Gestaltung

Es ist wichtig, sich mit der Programmierung der eigenen Seite zu befassen, dass die Webseite eine suchmaschinen- gerechte Gestaltung hat. Eine Webseite sollte mit einem CSS- Content Management System genutzt werden.

1.2 Wie erhalten Suchmaschinen Ihre Daten?

Suchmaschinen sammeln Ihre Daten mit speziller Software, den Spider, so AltaVista und Fireball, die ihre Informationen von den Webservern erhalten, bei denen die Webseiten abgelegt sind. Auf die Funktionsweise wird im Kapitel 2 eingegangen. Im Gegensatz dazu erhalten Kataloge wie Yahoo oder Web.de ihre Informationen indem die angemeldeten Seiten von Menschen angesehen und beurteilt werden. Eigentlich sind Namen wie Crawler (Kriecher), Spider (Spinne) oder Worm (Wurm) irreführend, weil sie die Vorstellung wecken, dass diese durch das Web wandern, sich dort die Seiten durchlesen, über Hyperlinks weiterwandern, die nächste Seite lesen, usw.

Neben der Suchmaschine gibt es eine Anmeldemaske. In denen werden die Webseiten als HTML-Dokumente angemeldet. In der Regel ist das die Startseite einer Webpräsenz. Zum änderen dient der Webserver als Schnittstelle zum Datenbankprogramm.

2. Funktionsweise von Suchmaschinen

Spider, Steuern von Spider, Metatags, robots.txt, Aufbau der Robots.txt, Grund des Gebrauchs, Beispiel anhand eines Gästebuchs, Metatags

2.1 Spider

Suchmaschinen bestehen aus mehreren Komponenten:
  • Ein Spider, der die Daten für die Suchmaschinen sammelt
  • Ein Indexer, der die Daten auf Suchwörter durchsucht und die Seiten im inversen Index den Suchwörtern zuordnet
  • Eine Datenbank, in der die indizierten Seiten gespeichert sind
  • Ein Suchmaschinen-Algorithmus, der die Relavanzbewertung der einzelnen Seiten übernimmt
  • Eine Eingabe-Maske, die das Frontend für den Benutzer darstellt, Suchmaske der Suchmaschine

Eine Suchmaschine hat eine Liste von ihr bekannten URLs. Die oberste wird an den Spider (auch "Agent", "Crawler", "Bot" oder "Robot" genannt) weitergegeben. Ein Spider ist ein Programm, das automatisch eine Seite besucht und diese als Kopie im Datenbestand der Suchmaschinen ablegt. Findet die Suchmaschine in dieser besuchten Seite eine ihr unbekannte URL, so wird diese URL der Liste hinzugefügt, so dass der Spider diese Seite bei passender Gelegenheit ebenfalls besucht. Im Prinzip würde es reichen, wenn man den Suchmaschinen einen einzigen Link nennt. Alle weiteren Seiten würde die Suchmaschine dann irgendwann automatisch erkennen.

Praktisch geht ein Spider folgendermaßen vor: Als erstes fragt er eine Datei namens robots.txt ab. Findet er dort nichts, was ihn am weiteren Besuch der Domain hindert, fragt er einige der Seiten aus seiner Liste von dieser Domain ab. Meistens crawlt der Spider nicht alle Seiten einer Präsenz bzw. einer IP-Adresse auf einmal, um den Server nicht zu überlasten. Teilweise (Google) werden nicht nur html-Dateien gespidert, sondern auch PDF-Dokumente. Spider der Suchmaschinen tragen sich in der Regel in die Logfiles der Domain ein. Die Eintrags-Namen finden Sie jeweils in den @-web Beiträgen zu den einzelnen Suchmaschinen. Eine Übersicht diverser aktiver Spider gibt es unter: robotstxt.org

2.1.1 Steuern von Spider

Kein Spider läst sich vorschreiben was er zu tun hat. Es kann ihm lediglich mitgeteilt werden was er zu lassen hat. Die Darstellung der Domains ist symbolisch, die Vielzahl der abzufragenden Domains lässt sich nicht darstellen. Der Webserver beantwortet die Abfrage. Mit der Datei robots.txt und den Metatags müsste jeder Betreiber einer Website bestimmen können welche Spider auf seine Seiten zugreifen dürfen. Ob diese sich daran halten hängt von der Programmierung ab. Es hat sich gezeigt, dass es Spider gibt die dies nicht beachten. So sind auch Angaben in den meta-tags wie "revisit after" aussichtslos. Es lassen sich einzelne Verzeichnisse (/privat) ausschließen. Dateien oder Verzeichnisse, die mit einem Zugriffsschutz (Passwort) versehen werden, können nicht erfasst werden.

2.1.2 Metatags

Über das meta-tag können Sie mit der Anweisung "noindex" und "nofollow" erreichen, das die Datei entweder selber nicht indiziert wird, oder den Links innerhalb dieser Datei nicht gefolgt wird.

2.1.3 robots.txt

Mit der robots.txt im Stammverzeichnis ist die Steuerung zum Teil etwas bequemer. Dort lassen sich einzelne Dateien oder ganze Verzeichnisse bequem sperren, und zwar für jedes einzelnes Bot dieser Welt spezifisch. Voraussetzung ist natürlich, dass sich der Bot an die Anweisungen hält. Verschieden Bots machen dies nicht automatisch.

2.1.4 Aufbau der Robots.txt

Um unnötige Fehlermeldungen zu vermeiden, sollte auf jeden Fall in jedem Stammverzeichnis einer Domain eine robots.txt vorhanden sein.

Wenn Sie die Präsenz vollständig indizieren lassen möchten sieht diese folgendermaßen aus:
user-agent: *
disallow:

Da hinter der Anweisung "disallow" nichts steht, ist für die Spider nichts verboten.

Verzeichnisse sperren Sie durch die Angabe des Pfades mit abschließendem Slash:
user-agent: *
disallow: /temp/

Damit ist das Verzeichnis "temp" für alle Spider verboten.

Einzelne Dateien sperrt man durch die genaue Angabe der Datei:
user-agent: *
disallow: /temp/termine-mai.html
Gruppen von Dateien kann man sperren, indem man nur den Anfang des Dateinamens schreibt:
user-agent: *
disallow: /temp/termine

Damit sind also auch die Dateien "termine-april.html", "termine-august.php" usw. gesperrt.

Des Weiteren kann man gezielt einzelnen Spidern bestimmte Dateien oder Verzeichnisse verbieten:
user-agent: googlebot
disallow: /temp/
user-agent: scooter
disallow: /temp/termine-mai.html
user-agent: *
disallow:

Durch dies ist dem Googlebot das gesamte Verzeichnis "temp" gesperrt. Der Scooter (Altavista) darf hier nur die Datei "termine-mai.html" nicht indizieren. Alle anderen bots dürfen machen, was sie wollen.

2.1.5 Grund des Gebrauchs

Viele Spider erzeugen Traffic auf Ihrer Seite, ohne dass sie einen direkten Nutzen abwerfen, so z.B. E-Mail-Sammler wie EmailSiphon. Die Logfiles werden durch die Unmengen an Spidern verfälscht. Werden die überflüssigen Bots ausgeschlossen, falls das entsprechende Programm nicht über eine adäquate Spidererkennung verfügt, wertet das die Ergebnisse der Logfileauswertung auf.

2.1.6 Beispiel anhand eines Gästebuchs

Viele Gästebücher werden für Spam benutzt.

Durch den Eintrag meta name="robots" content="noindex" in den Kopf der Gästebuchdatei lässt es sich verhindern, dass das Gästebuch von Spammern durch Suchmaschinen gefunden wird.

Das Gästebuch kann auch per Robots.txt gesperrt werden:
user-agent: *
disallow: /gaestebuch/

2.2 Indexer

Die html-Dateien erhält der Indexer vom Spider, die der Spider besucht hat. Diese Dateien werden vom Indexer auf Keywords durchsucht und erstellt daraus die Datenbank und den Inversen Index. Und er untersucht die erhaltenen html-Dateien auf neue URL.s. Diese Links werden der Liste hinzugefügt, die die durch den Spider abzuarbeitenden Seiten enthält. Wird in der Anmeldemaske der Suchmaschine die html-Dateien angemeldet, wird die URL in den Indexer aufgenommen. Diverse Filter gegen Spam und gegen unsaubere Inhalte sorgen für aufbereitete Daten. Gesperrte Adressen werden ebenfalls ausgefiltert. Einige Suchmaschinen setzen außerdem auf redaktionelle Auslese. In der Praxis gibt es allerdings mit dem Filtern Probleme.

2.2.1 Indizierungsprogramm

Die übermittelten Daten wertet das Indizierungsprogramm aus. Es werden nur die Daten aufgenommen, die in der Datenbank eine entsprechende Rubrik bekommen. Durch die Nutzer wird der Inhalt eines Index gestaltet. Wie der Inhalt dargestellt wird, wird mit Ihrem Seiteninhalt und der Gestaltung von Titel und Metatags gesorgt. Meta-Tags sind im unsichtbaren Teil einer Webseite enthalten, die jedoch von den meisten Suchmaschinen nicht ausgewertet werden, weil diese zu viel Missbrauchpotential bieten. Suchmaschinen unterscheiden sich im Umfang der aufzunehmenden Daten. Den gesamten Text einer Website werten Volltextsuchmaschinen wie AltaVista und Fireball aus, andere begnügen sich mit den ersten Sätzen einer Webseite.

Kategorien der Datenspeicherung:
  • Volltextsuchmaschinen: unter anderem sind Volltextsuche und Pharsensuche möglich
  • Speichern von Meta-Daten als Verschlagwortung: Suche in Verschlagwortung
  • Speichern von Wort-Statistiken: Stichwortsuche

Für die Wortstatistiken wird nicht jedes einzelne Wort abgelegt. Jedes Schlüsselwort wird nur einmal abgelegt, mit der Information wie oft es in der Webseite an bestimmten Stellen (Überschrift, Metatags, Text, Position im Text) enthalten ist. Von leistungsfähigen Suchmaschinen mehr als nur reine HTML-Dokumente erfasst, z.B. Bilder, Musik, Videos. Als Suchaufgabe werden Links aus den Webseiten extrahiert und für den Spider zusammengestellt. Alle Links einer Webseite werden weiterverfolgt.

2.2.2 Indizierung der Seiten prüfen

Bei den meisten Suchmaschinen kann abgefragt werden, ob die eigenen Seiten bereits im Verzeichnis aufgenommen wurden. Jedoch ist die Schreibweise nicht für alle Suchmaschinen gleich. Mit der folgenden Syntax listen die Suchmaschinen alle die Seiten auf, die deren Verzeichnis indiziert sind.

  • Google: site:www.Ihre-domain.de "+www.Ihre-domain.de"
  • AltaVista: host:www.Ihre-domain.de
  • Fireball: site:www.Ihre-domain.de oder host:www.Ihre-domain.de
  • Lycos: url.all:http://www.Ihre-domain.de

2.3 Inverse Index

Eine Suchmaschine legt einen inversen Index an, dass sie nicht den vollständigen Datenbestand der Suchmaschinen mittels einer Volltextsuche durchforsten muss, wenn an die Suchmaschine eine Anfrage gestellt wird. Somit verfügen Suchmaschinen über zwei Listen:

  • In der einen Liste sind sämtliche Seiten, die der Suchmaschine bekannt sind, der Reihe nach aufgelistet und nummeriert
  • In der zweiten Liste (inverser Index) ist für jeden Suchbegriff verzeichnet, in welcher der in der ersten aufgelisteten Seiten dieser Begriff vorkommt

2.3.1 Funktionsweise des inverse Index

Der inverse Index liefert die laufende Nummer der Seiten in denen der gesuchte Begriff vorkommt. Mit diesen Nummern werden aus der ersten Liste die zugehörigen URLs ermittelt und ausgegeben. Somit steht die Liste mit den Seiten die zu listen sind fest. Im inversen Index steht ein zweiter Parameter pro Seite, der Auskunft über die Relevanz einer Seite zu dem entsprechenden Suchbegriff gibt. Dieser Parameter wird durch einen weiteren Teil, den Suchmaschinen-Algorithmus, geliefert, der die Relevanzbewertung der Seite übernimmt.

2.4 Relevanzbewertung durch den Suchmaschinen-Algorithmus

Aus dem Suchmaschinen-Algorithmus der einzelnen Suchmaschinen ergibt sich die Relevanzbewertung der verschiedenen Seiten. Dieser Algorithmus ist bei allen Suchmaschinen leicht unterschiedlich und deren Wohlgehütetes Geheimnis. Ansonsten hätten die Suchmaschinen keine Möglichkeit mehr, sich gegen Manipulationen zur Wehr zu setzen.

Abfragen eines Suchbegriffes werden höher gelistet, wenn die Relevanz zu einem bestimmten Suchbegriff höher ist. Dies wird mittels des Suchmaschinen-Algorithmus erreicht, der jeder Seite auf diese Seite vorkommenden Suchbegriff ein Wert zuordnet.

Google bedient sich für die Positionierung einer Seite in den Suchergebnissen neben dem Pagerank der Relevanz der Seite für die entsprechende Suchanfrage. Es wird für die Relevanz eine so genannte IR Score für die Seite berechnet. Diese setzt sich aus internen Faktoren, wie Anzahl und Position der Suchbegriffe, sowie externen Faktoren wie Ankertext bei den verlinkenden Seiten zusammen.

Zum Schluss wird das Produkt aus dem Pagerank und der IR Score der Seite gebildet. Je höher dieses Produkt, desto besser wird die entsprechende Seite unter den Suchergebnissen gelistet.

Einige Parameter für die Relevanzbewertung:
seiten-interne Parameter (Suchworthäufigkeit in prägnanten Stellen):
  • + Titel
  • + Überschriften
  • + Link-Texten
  • + Dateinamen
  • + alt-Tags von Bildern und Grafiken
seiten-externe Parameter: Link-Popularität (Anzahl der auf diese Seite verweisenden Links) Qualität der externen Links (PagerankTM) Linktexte der externen Links

Möglich ist auch die Linkpopularität, wo diese als absolute Anzahl an Links ist, die auf eine Seite zeigen, sowie der von der Suchmaschine Google eingeführte "PagerankTM ", gewertet werden. Die Aktualität der Web-Seite spielt auch eine große Rolle.

Um die Position der eigenen Webseiten bei den diversen Suchmaschinen gezielt zu verbessern, ist eine möglichst genaue Kenntnis der jeweiligen Algorithmen wichtig.

2.4.1 Ranking in der Suchmaschine Google

Eine spezielle Software, die von Google zum Patent angemeldete wurde ist die Page Rank Technologie, sie sorgt für "demokratisches" Ranking.

Das wichtigste Kriterium beim Ranking ist die Anzahl externer Links auf eine Webseite. Durch dies wird analysiert ob diese externen Seiten wichtig sind. Es wird auch der Inhalt auf die verweisenden Seiten überprüft, welche Relevanz diese Inhalte zur gesuchten Seite haben. Der Text im Verweis ist von Bedeutung.

So beeinflusst das Vorkommen des Suchbegriffs im Seitentitel, im description-Tag und am Textanfang das Ranking. Je näher die Suchbegriffe in einer Seite beieinander liegen, je höher stuft Google diese Seite ein. Seiten werden nur wiedergegeben, wenn alle Suchworte im Seitentext oder in denn verweisenden Links vorkommen. Vorkommen des Suchbegriffes in der URL, fetter Text und die Größe der verwendeten Schrift. Zusätzliche textliche Beschreibungen sollten Webseiten verwenden, die fast nur über Grafiken und Bildern Ihre Inhalte kommunizieren und diese in ALT-Tags der Grafiken, Bilder einbinden. Es ist empfehlenswert einen Eintrag im ODP (Open Directory Project) zu beantragen. Mit diesem wird das Ranking bei Google positiv beeinflusst. Nur zu einem geringen Teil gehen die Meta-Tags keywords und description in das Ranking ein. Das Ranking ist noch von weiteren Regeln abhängig.

2.4.1.1 Term Vector

Für das Ranking ist wichtig, dass die gesamte Seite ein Thema behandelt. Je näher die Seite an ihrem speziellen Thema bleibt erkennt Google, dass es sich um eine interessante Seite eines Spezialisten handelt.

Webseiten ohne Link von einer anderen Seite werden als Spam eingestuft, damit werden z.B. Brückenseiten ausgeschlossen, die für eine gute Platzierung dienen sollen. Es gibt insgesamt 25 Kriterien für das Ranking.

2.4.1.2 Negative Einflüsse auf das Ranking

Das Ranking wird von Unsichtbarer Texten, Versteckten Links, Cloaking, schleichenden Redirects, viele doppelte Inhalte auf unterschiedlichen Domains und Doorwaypages negativ beeinflusst.

2.4.1.3 Fesstellung des Pageranks

Mit der Google-Toolbar (http://toolbar.google.com/intl/de) lässt sich feststellen welchen PageRank-Wert eine Seite bekommen hat. Ein grüner Statusbalken zeigt den Pagerank zwischen 0 und 10. Wird der Mauszeiger über den Statusbalken gehalten, erscheint die aktuelle Pagerank Zahl.

2.4.2 Wie berechnet sich der Pagerank

Wie schon erwähnt ist die genaue Formel zur Berechnung des Pagerank ein gut gehütetes Geheimnis von Google. Die ursprünglich an der Stanford University entwickelte Formel lautet folgendermaßen:

PR(A) = (1-d) + d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn))

PR(X) gibt das Pagerank der Seite X an, C(Y) die Anzahl ausgehender Links von Seite Y bezeichnet, und d der so genannte Dämpfungsfaktor ist. Der Dämpfungsfaktor ist ein Wert zwischen 0 und 1, der von Google festgelegt wird und nicht bekannt ist. Der soll aber um 0.85 liegen.

Der Pagerank einer Seite X hängt also ab von der Anzahl der Links anderer Seiten (T1, ..., Tn) auf die Seite X, vom Pagerank der Seiten T1 bis Tn, sowie der Anzahl der ausgehenden Links auf T1 bis Tn.

Ein Link von einer anderen Seite ist besonders wertvoll wenn: Zum einen diese Seite selbst einen hohen Pagerank hat und es nur wenig ausgehende Links von dieser Seite gibt.

Allerdings ist die tatsächliche Formel für den Pagerank inzwischen weitaus komplexer, es wurde schon behauptet, dass etwa 700 Faktoren zur Berechnung des Pagerank herangezogen werden. Weiterhin fällt auf, dass der durch diese Formel bestimmte Pagerank keineswegs zwischen 0 und 10 liegt, sondern ein theoretisches Maximum hat, welches von der Anzahl aller bekannten Webseiten abhängt. Folglich muss eine Skalierung stattfinden.

2.4.3 Hilltop Algorithmus

Ist ein Verfahren, um ebenfalls die Relevanz einer Webseite für eine Suchanfrage zu ermitteln. Anders als beim Pagerank ist die Relevanz nach Hilltop spezifisch für einen bestimmten Suchbegriff. So kann eine Website nach Hilltop z.B. eine hohe Relevanz für das Keyword Webdesign besitzen, allerdings nur eine geringe Relevanz für das Keyword Pingpong. Dies kann auch wie eine Art keywordspezifischen Pagerank vorgestellt werden.

2.4.3.1 Expertenseiten

Der Hiltop Algorithmus verlässt sich auf den Expertenseiten, um diese Keyword-spezifische Relevanz einer Seite zu bestimmen. Das sind Seiten, denen die Suchmaschine eine hohe Autorität für ein bestimmtes Thema zuspricht. Zum Beispiel Amazon würde als Expertenseite für Bücher gelten. Wird eine Suchanfrage gestartet, ermittelt die Suchmaschine zunächst die für den entsprechenden Begriff relevanten Expertenseiten. Seiten, auf die von mindestens zwei unabhängigen Expertenseiten verwiesen wird, sind dabei Kandidaten für ein Suchergebnis. Das Ranking der Suchergebnisse wird dann durch Anzahl und Relevanz der Verweise von Expertenseiten ermittelt.

2.4.3.2 Unabhängigkeit

Die Manipulierbarkeit des Hilltop Algorithmus wird minimiert indem Verweise von unabhängigen Expertenseiten herangezogen werden. Von einander unabhängig gelten zwei Expertenseiten wenn die folgenden Kriterien erfüllt werden: Zum einen dürfen die IP-Adressen nicht im gleichen C-Block liegen, dass heißt, die ersten drei Blöcke der IP-Adresse dürfen nicht identisch sein. Und die Domain-Namen müssen sich im am weitesten rechts liegenden, nicht generischen Teil unterscheiden, z.B. Endungen wie .com, .de, .net. Weiterhin gilt bei der Bestimmung der Zusammengehörigkeit eine Transitivität: Wenn Host A zu Host B gehört, und Host B zu Host C, dann wird automatisch angenommen, dass auch Host A und Host C nicht voneinander unabhängig sind.

2.4.4 Die Linkpopularität der Seiten prüfen

Die folgende Syntax listet Ihnen alle Seiten auf, die einen Link auf die entsprechende Seite gesetzt haben und Pagerank von mehr als drei haben.

    Google: link:www.Ihre-domain.de

    AltaVista: link:www.Ihre-domain.de

    Fireball: link:www.Ihre-domain.de

    Lycos: link:www.Ihre-domain.de

    AllTheWeb: link:www.Ihre-domain.de

Fazit

Nach wie vor sind die Internet Suchmaschinen sehr populär. Die komplexe Funktionalität der Suchmaschinen ermöglicht eine Vielzahl von Zugriffen auf Webseiten, die ohne diese Funktion nur schwer oder gar nicht auffindbar wären.

Unabhängig von Themenbereichen ist es möglich jegliche Informationen mithilfe von Suchmaschinen zu finden. Die komplexe Funktionalität ermöglicht dies ohne auf Seiten zu stoßen die nicht mit dem gesuchten Thema in Verbindung steht.

Nach wie vor ist Google eine der bzw. die Suchmaschine im Worl Wide Web, verdankend ihrer komplexität, im speziellen dem Pagerank. In kurze soll ein neuer Anti-Spam Algorithmus in Google zutaten kommen, d.h. die Spam Bekämpfung hat bei Google die höchste Priorität. Somit füllt Google noch bestehende Lücken aus, um die Suchmaschinen entscheidend zu Optimieren. Mit solch einem Voranschreiten wird Google weiterhin eine der Populärsten Internet Suchmaschinen bleiben.

3. Anforderungen an Startseiten, Strukturen und Aufbau, Unterseiten und Auswahl der richtigen Metatags

Aufbau der Startseite, Strukturen, Unterseiten, Metatags

3.1 Auswahl Domänname, Hosting

Falls auf die Auswahl des Domännamen Einfluss genommen werden kann bzw. falls der gewünschte Name nicht mehr frei ist, so kann man das Haupt- Keywort auch in den Domäinnamen einfließen lassen.

www.Firmenname-Keyword1.de - mit Link auf nur eine (Landingpage) Seite!

Der Haupt-Domännamen gilt für die gesamte Webseite, der Landingpage-Domännamen nur für eine Optimierte Unterseite welche nicht über den Haupt-Domännamen erreichbar ist.

3.1.2 Seitenaufbau, interne Verlinkung, Sitemap

Beim Seitenaufbau muss darauf geachtet werden, dass die Webseite für die Roboter leicht lesbar ist und eine logische Struktur herrscht. Ein Sitemap sollte im HEAD- Bereich der Webseite verlinkt werden, die Suchmaschine liest von Links Oben nach Rechts Unten, also Head-> Menu-> Content-> Footer. Bei der gesamten Content Gestaltung sollte eine Brotkrümmelnavigation (Breadcrumb Navigation) im Content Bereich eingebaut werden. ( Home- Kategorie- Unterkategorie- Produkt). (in H2)

Wichtig ist die Struktur der Ebenen. Ein erstes Kriterium ist die Stellung des Dokuments innerhalb der Hierarchie einer Seite. Jede Verzeichnisebene ist durch einen Schrägstrich (Slash) in der Url getrennt, wodurch die jeweilige Ebene leicht zu ermitteln ist. Dokumente, die auf einer höhrern Ebene liegen, können bevorzugt bewertet werden.

3.1.3 Mod Rewrite, mod_rewrite

Eine dynamische Webseite (z.B. index.php) kann hunderte von verschiedenen Inhalten generieren (bspw. über die Anbindung an eine Datenbank) ohne dass sich der Dateiname ändert. Es werden beim Aufruf der Seite jeweils andere Parameter übergeben die wiederum ein Schlüssel in einer Datenbanktabelle darstellen. Mod Rewrite hingegen ist ein Modul das es möglich macht solche dynamischen Links in statische Links zu verwandeln.

Das Modul wird in den Apache Server geladen und wird über eine .htaccess gesteuert. Hintergrund dieser Technologie ist, Keywords in den künstlich erzeugten Dateinamen unterzubringen. Anstatt 2 verschiedene Unterseiten der folgenden Art zu haben: index.php?page=modrewrite und index.php?page=linkbuilding erzeugt man künstliche Dateinamen anhand des Parameters page.

So würden z.B. die Verzeichnisse /modrewrite/ oder /linkbuilding/ entstehen.

Der Vorteil besteht nun explizit darin, dass man 1. für jedes relevante Keyword eigene Seiten hat (zumindest wird dies nach außen hin suggeriert) und 2. keine Parameter mehr hinter dem Dateinamen stehen hat. Die Besucher haben dadurch den Vorteil sich URLs besser merken zu können und Suchmaschinen haben den Vorteil diese besser indexieren zu können.

3.1.4 Keyword Density, Keyword Häufigkeit

Unter Keyword Density oder auch Keyword Dichte versteht man die Anzahl der Worte eines bestimmten Bereiches, meistens einer gesamten Webseite zum Verhältnis zum gesamten Text. Dabei unterscheidet man reinen Text und Text mit HTML-Tags, wie z.B. title oder alt. Die Keyword Dichte spielt bei Suchmaschinen eine wichtige Rolle im Ranking. Übertreibt man seine "guten" Absichten ist die Keyword Density zu hoch und man noch eher eine Bestrafung im Ranking, da solche Methoden typische Methoden von Spammern sind.

Beispiel: Auf einer Webseite mit 100 Worten kommt 5 mal das Wort Suchmaschinenoptimierung vor. Die Keyworddichte beträgt in diesem Fall 5%.

3.1.5 Strukturen und Aufbau

Bei der Erstellung einer Webseite, Unterseite ist die Größe und Art des Dokuments von Bedeutung. Ausserdem Titel, Metatags, Beschreibung, Überschrift (H1), Kategorie Überschrift (H2), Produkt Slogan (Kursiv), Produktnamen (STRONG, B) und die interne Verlinkung.

3.1.6 Unterseiten

Die Indexierung der Unterseiten werden durch ein Sitemap und Deeplinks von der Startseite gefördert.

3.1.7 Metatags

Im Kopfdatenbereich einer Webseite befinden sich neben der Angabe des Titels (40-50 Zeichen) auch die Metatags. Die Meta Angaben (In Komma Max 20 Begriffe pro Seite) in einem Netzauftritt sind Anweisungen für Suchmaschinen, für Google kaum von Bedeutung, Yahoo hingegen nutzt diese Angaben noch. Das Description Tag beschreibt den Inhalt der Seite (auch die Ansicht bei Google Ergebnissen).