PS-Trainer Web Promotion - HTML Codierung
Informationen, Referate und Links zur Web-Platzierung von PS-Trainer
Homepage von PS-Trainer - Referat WebPromotion - an PS-Trainer

Spider - Medium - HTML - Keywords - Popularität - Promotion & Ranking
PS-Trainer PS-Trainer

HTML-Codierung - Wo und wie werden Promo-Informationen auf eine Webseite eingebracht ?
Erlaubt und erwünscht ist alles, worauf die Programmierer der search robots bisher gekommen sind:
URL (Domain, Adresse, Filename)
Frames: Framesets, Frame-Namen
Titel (<title>-tag) und andere Hervorhebungen
Meta (diverse <meta>-tags) speziell für Promotion
Robot-Steuerung durch meta-tags oder Steuer-Dateien
Überschriften (div. header-tags)
Navigationsleisten
Inhalt (body-Inhalt)
Links,
Grafiken: Datei-Namen, Alternativ-Texte
Hindernisse und deren Umgehung
Themen - von der Einzelseite zum Web
Nicht relevant sind meist die Informationen von JavaScript-Passagen und dynamisch erzeugtem Code - alles, was sie dort an Information bieten, wird von den robots schlicht ignoriert.
wird ignoriertRobots lesen Texte, aber keine in Grafiken "versteckten" Botschaften - Bild-Inhalte wie dieses Beispiel werden daher ignoriert.

Geben sie sich nicht der Hoffnung hin, daß ihre meta-tags vertrauensvoll so verwendet werden, wie von ihnen zur Verfügung gestellt. Jeder robot setzt alle Tricks ein, um dahinterzukommen, ob ihr Web auch tatsächlich jene Information anbietet, die sie versprechen. Sie sollten daher versuchen, das Vertrauen eines robots zu gewinnen. Jede versäumte Gelegenheit dazu bietet sich - wenn überhaupt - erst wieder nach Wochen und Monaten.

Verschenken sie keine Möglichkeit, die von ihnen gewählten und getesteten Stichworte zu platzieren - die Herstellung des Webs kostet nicht mehr oder weniger, die Effizienz steigt oder fällt jedoch um viele Größenordnungen. Das lässt sich leicht bei der Planung eines Webs berücksichtigen, kann jedoch bei einem bereits bestehenden Web einen unangenehm hohen Aufwand darstellen.

Domain-Namen
Eine eigene Domäne (z.B. http://www.meinweb.xxx) ist für weitreichenden Web-Erfolg fast unumgänglich. Unter fremden domains angelegte Webs sind langfristig immer in der Wirkung beschränkt. Wenn sie planen, später einmal ihre eigene domain zu kaufen, dann sollten sie bedenken, dass ihre Wunsch-domain dann vielleicht schon vergeben ist.
Für den Anfang können sie mit ihrem Web natürlich in einer fremden domain unterschlüpfen, dort ihre Seiten in aller Ruhe zusammenstellen, testen, verbessern, ergänzen... Allfällige Fehler sind (von robots) sofort vergessen, wenn ihr Web in die eigene domain "umzieht".

Stellen sie frühzeitig eine Liste von Wunsch-Domänen-Namen auf und testen sie das Web, ob ihre domains überhaupt noch frei sind !

Dateinamen, Ordner-Namen, Frame-Namen und Namen von Grafiken werden frühzeitig festgelegt und sind nur mit erheblichem Aufwand zu ändern - verankern sie dort wichtige Begriffe !
Es ist eben nicht gleichgültig, wie sie Seiten, Bilder oder Ordner benennen:
Gut Schlecht
stephansdom.htm
stephansdom_678.gif
http://www.test.com/wien/innenstadt
myfile1234.htm
stpnsdm678.gif
http://www.test.com/dir27356

Framesets
sind ein oft vernachlässigter Platz, kostenlos viele Bewertungspunkte zu sammeln:
Vergeben sie unbedingt relevante Seiten-Titel (s.u.) und schreiben sie wichtige Informationen in den <noframes>-Bereich. Stellen sie dorthin auch alle wichtigen Links auf ihre übrigen Seiten, denn nur so sind spiders in der Lage, überhaupt ohne frames zu diesen Seiten zu gelangen.
Ein Trick ist der Einsatz versteckter frames (z.B. 1 pixel hoch oder breit), die für Menschen unsichtbar sind, jedoch alle relevanten Information für spiders enthalten.
Achtung: Frames werden nicht von allen robots gelesen. Verwenden sie zur Information der robots daher unbedingt das <noframes>-tag, und stellen sie dieses an den Anfang ihres body-codes !

Links: Domain name stuff,

Titel (<title>-tag)
werden in Browsern angezeigt und daher sowohl von BesucherInnen als auch von spiders hoch bewertet.
Meist werden die Titel auch als Bezeichnung für allfällige Bookmarks (Lesezeichen, Favoriten) vorgeschlagen.
Jede Seite sollte einen eigenen, zutreffenden Titel haben, möglichst keine irrelevanten filter words enthalten, und ihre Stichworte in der richtigen Nähe und Reihenfolge wiedergeben.
Achtung: nur eine bestimmte Anzahl von Zeichen (50...70) wird durchsucht: halten sie daher die Titel aussagekräftig, aber knapp

SpiderFood Search engine character limits.

Meta-Tags
wurden zu dem Zweck erfunden, robots Auskunft über die Zuordnung von Webs zu geben. Das wurde so oft missbraucht, dass spiders misstrauisch sind: Wenn ihre Meta-Informationen nicht zum Inhalt ihres Webs passen, so ist das ein Zeichen für vorzeitigen Abbruch, im besten Fall für Punkte-Abzug. Wenn alles in ein geschlossenes Bild passt, holen sie sich das Vertrauen des spiders und Pluspunkte.

Eliminieren sie alle meta-Angaben, die sich nicht oder nicht ausreichend im body-Text wiederfinden - oder ergänzen sie im body den dazu passenden Text.

Geografie ist wichtig ! Vergessen sie nicht, Standort, Region und/oder Staat zu erwähnen - ein häufig verwendetes Suchkriterium !

Wiederholen sie Stichworte in meta-tags nicht oder nicht oft - "Keyword spamming" gibt Minuspunkte !
Overkill ist sinnlos: robots lesen nur eine bestimmte max. Anzahl Zeichen (ca. 200) pro meta-tag, alles danach wird ignoriert: SpiderFood Search engine character limits.
Falls sie unbedingt mehr Stichworte unterbringen wollen - teilen sie die Webseite auf mehrere kleinere Seiten auf, jede davon wird dann getrennt untersucht und bewertet.

Leerzeichen sind bessere Trennzeichen als Beistriche oder andere Satzzeichen. Wahren sie die Chance auf Such-Treffer durch Phrasen oder Satzteile und zerreissen sie ihre Stichworte nicht durch Satzzeichen.

Vorsicht bei Verwendung von <meta refresh>! Dieses tag wurde so oft missbraucht, dass manche spiders sein Auftreten als Abbruchkriterium interpretieren.

Es gibt reichlich Programme, die meta-tags nach ihren Angaben erzeugen oder testen.
Links: Meta-Daten von Fireball (de), Meta-Tag Generator von Fileball (de), Meta Tag Analyzer & Builder von ScrubTheWeb, MetaChart,

Steuerung von Robots
Mit Hilfe der <meta robots>-tags können sie das Verhalten von robots steuern: Normalerweise folgen spiders jedem Link und durchsuchen alle Seiten, die solcherart erreicht werden können. Die tags <nofollow> bzw. <noindex> stoppen die weitere Suche bzw. lassen tiefere Suche zu, verhindern jedoch die Indizierung (Bewertung) der betreffenden Seite. (Anm.: Lycos soll überhaupt nur dieses meta tag lesen).

Eine weitere Möglichkeit ist die Kontrolle von robots über eine eigene Steuer-Datei, das file robots.txt. Als Editor kann jeder Text-Editor eingesetzt werden, oder spezielle Programme wie RoboGen, oder Robots Syntax Checker.
Die folgenden Links enthalten Bookmarklets: kleine JavaScript-Programme, die sie als Bookmark / Lesezeichen / Favoriten in ihrem Browser speichern können:

Bookmarklet zum Lesen der robots.txt-Datei des aktuellen Servers für Navigator und Explorer (Achtung: Verwendung ohne Gewähr !). Beim Anklicken verhalten sich Bookmarklets wie jeder andere Link - das damit verknüpfte Programm läuft ab. Wenn sie das Bookmarklet jedoch als Bookmark / Lesezeichen / Favorit in ihrem Browser speichern, so können sie das Programm mit jeder beliebigen gerade geladenen Webseite benutzen - und z.B. die robots-Steuerdatei anzeigen.

Überschriften (headers)
wurden in grauer Web-Vorzeit mit eigenen tags erzeugt (<H1>...<H6>). Spiders gehen davon aus, dass sie damit wichtige Begriffe bezeichnen. Nachteil: Solcherart markierte Texte werden von manchen Browsern / Versionen unerwünscht formatiert.
Natürlich können sie wichtige Überschriften auch auf anderen Wegen erzeugen - diese werden von robots jedoch wie normaler Text interpretiert. Der (für Promo) dümmste Weg, wichtige Überschriften einzubauen ist als (spider-unleserliche) Grafik.

Navigationsleisten spiegeln in den meisten Webs die wichtigen Stichworte, stehen weit vorne im (kurzen) Text der Navigations-Frames und sind manchmal auch noch mit header-tags <H1> hervorgehoben. Ein idealer Platz zum Sammeln wichtiger Punkte. In der Praxis werden immer mehr Navigationsleisten durch scripts erzeugt, die raffinierte Effekte zeigen, jedoch von spiders ignoriert werden - Verschenkte Gutpunkte.

Links
werden allgemein hoch bewertet: Die Namen der Ankerpunkte und Ziel-Dateien sollten ihre Stichworte wiederspiegeln.
Die im Link-Text erscheinenden Worte werden ebenfalls höher bewertet:
Lassen sie daher nicht auf "Klicken sie hier" klicken sondern z.B. auf "Bücher hier bestellen": "hier" ist wertlos, aber "Bücher" könnte ihr Stichwort sein.

Grafik-tags (<img...>)
bieten die Möglichkeit, alternative Texte (<alt="">-tags) aufzunehmen. Spiders bewerten sowohl Grafik-Dateinamen als auch alt-tags.
Verwenden sie wichtige Stichworte in den alt-Texten - ihre ProgrammiererInnen müssen daher zum Zeitpunkt der Erstellung die Stichworte und deren optimale Reihung kennen. Setzen sie alt-Texte in Beziehung zu den Bildern - die Verwendung vieler gleicher alt-Texte wird als spam erkannt und bestraft...
Wenn sie nur wenige Grafiken auf ihrer Seite haben, so ist das noch kein Grund, auf die Wirkung von <alt>-tags zu verzichten: Erzeugen sie winzige (1x1 pixel transparent) Grafiken, weisen sie nicht deren geringe Größe aus (width und height-attribute weglassen) und versehen sie diese Grafiken mit den gewünschten alt-Tags.

Image-maps können nicht von allen spiders interpretiert werden. Bieten sie daher die Möglichkeit, die dort definierten Ziele auch mit normalen Links zu erreichen.

PDF-Dateien werden derzeit von den meisten spiders ignoriert.

Body - die Wahrheit über ihre Inhalte
Der Inhalt von Fließtext nimmt an Bedeutung ständig zu, die Methoden zur Interpretation werden immer raffinierter. Am besten fahren sie langfristig, wenn eine Analyse ihrer Texte eine rasche und eindeutige Zuordnung zu einem Thema zuläßt. Wenn alles zusammenpasst - Domain, Dateinamen, Stichworte, Titel, Inhalt - dann hat ein robot Vertrauen und nimmt ihr Web wohlwollend in seine Datenbank auf.

Dynamischer Code wird zwar von Web-ProgrammiererInnen immer häufiger eingesetzt, aber nur von wenigen spiders interpretiert. Jeder Link, der ein Fragezeichen enthält, kann einen Stolperstein für spiders darstellen. Stellen sie sicher, dass zumindest ihre wichtigsten Stichworte auch in statischem HTML zugänglich sind.
Einige Tricks bieten ihnen die Möglichkeit, speziellen body-Text für Menschen unsichtbar nur den spiders anzubieten:
Die Tags <noframes> oder <noscript> werden von modernen Browsern nicht mehr angezeigt und begrenzen daher eine Portion Text, die tatsächlich nur mehr von robots gelesen wird.
Layers können sie an beliebiger Stelle platzieren: auch an solchen, die für menschliche BesucherInnen unsichtbar sind. Dort enthaltene Texte werden daher nur von robots gelesen. Spiders lesen ihre Seite in Reihenfolge der Codierung, nicht so wie (die meisten) Menschen von links oben nach rechts unten - Layers mit wichtigen Stichworten daher an den Anfang stellen, Layers ohne Stichworte ganz an das Ende ihres Codes.

Sie sollten ihre Seiten mit mehreren Browsern / Versionen kontrollieren, bevor sie zu solchen Tricks greifen. Außerdem ist es wohl nur eine Frage der Zeit, bis ihnen die robots auf die Schliche kommen und Minuspunkte verteilen...

Hindernisse
(z.B. Passworte oder andere zwingende Eingabe-Vorschriften) verhindern, dass robots die folgenden Seiten besuchen. Seiten für Insider, Clubmitglieder, qualifizierte Stammkunden, usw. sind daher für spiders nicht zugänglich und werden in Suchmaschinen nicht geführt. Falls sie dennoch präsent sein wollen, müssen sie zumindest einige perfekt optimierte und öffentlich zugängliche Seiten bereithalten.

Viele spiders interpretieren auch keine frames - sie sind daher auf jene Links angewiesen, die im <noframes>-Bereich der framesets angeboten werden.
Sie können beide Nachteile mit geringem Risiko zu einem Vorteil verbinden: Stellen sie die Links zu ihren Club-Seiten in den noframes-Bereich der framesets. So kommen Menschen nur mit Passwort in den Club, spiders jedoch ohne Hindernis.
Ein weiteres Hindernis kann entstehen, wenn externe BesucherInnen einen link auf eine ihrer einzelnen HTML-Seiten anlegen, und zwar ohne den frameset zu laden: Menschen ebenso wie spiders gelangen dann über den Link zu ihrer "nackten" Seite: Falls sich dort keine Links zu ihren übrigen Seiten befinden, endet hier die Arbeit des robots.

Abhilfe für menschliche BesucherInnen schafft ein JavaScript, das ihr frameset in diesem Falle zwangsweise nachlädt, und auch fremde eventuell übergeordnete framesets durchbricht.
Für robots müssen sie die Links zu den wichtigsten Seiten ihres Webs jedoch an anderer, evtl. versteckter Stelle bereithalten.

Die Bewertung von Webs nach Themen ist ein modernes Konzept:

Dabei werden nicht einzelne Webseiten gelesen, verfolgt und bewertet, sondern ganze Webs gelesen und als Einheit bewertet.
Das bedeutet normalerweise ranking-Verluste für Webs mit gemischten Themen, denn selbst wenn jede einzelne Web-Seite sich strikt an ein Thema hält, andere Seiten des gleichen Webs jedoch auf andere Themen spezialisiert sind, so ergibt sich für einen robot ein zersplittertes Bild.
Falls sich jedoch ihr gesamtes Web auf ein Thema konzentriert, so gewinnen sie normalerweise durch eine derartige Bewertung.
Auf die Programmierung einzelner Seiten hat das Themen-Konzept keine Auswirkung. Sie sollten jedoch mittelfristig dazu übergehen, komplexe Webs in kleinere, thematisch einheitliche Webs aufzuteilen, von denen jedes einzelne ein hohes ranking erreichen sollte.

Erfolgreiche Anbieter einheitlicher, gut optimierter Webs werden in Zukunft hohe rankings erreichen und andere Webs aus diesen Positionen verdrängen. Dieses Verhalten bedeutet Vorteile für kleine spezialisierte Anbieter, Nachteile für große Anbieter mit einem komplexen Angebot an Waren, Informationen oder Dienstleistungen (z. B. große Versandhäuser).

Homepage von PS-Trainer - Referat WebPromotion - an PS-Trainer
Spider - Medium - HTML - Keywords - Popularität - Promotion & Ranking

Aktuelle Daten dieser Seite Letzte Änderung:
  Geocities