Webseiten-Optimierung

Robots
Robots, Spider, Bot, Crawler, Searchbot oder auch Webcrawler genannt, sind Programme, die automatisch das World Wide Web durcchsuchen und Webseiten analysieren. Dabei bewegen sie sich weitgehend autonom vorhandene Links von Webseite zu Webseite.
Inhalt:
2. Webseiten-Optimierung
2.1 Onpage-Optimierung
2.1.1 Website-Struktur
2.1.1.1 Frames
2.1.1.2 Startseite
2.1.1.3 Website-Umfang
2.1.1.4 Verzeichnistiefe
2.1.1.5 Domainname
2.1.1.5.1 Standarddomain
2.1.1.5.2 Subdomain
2.1.1.6 Verzeichnisse
2.1.1.7 Dateiname
2.1.1.8 Interne Links
2.1.1.8.1 Einheitliche Linkziele
2.1.1.8.2 Linkstruktur
2.1.1.8.3 Textlinks
2.1.1.8.4 Breadcrumbs
2.1.1.8.5 Doppelte Links
2.1.1.8.6 Footer
2.1.1.8.7 Fließtext
2.1.1.8.8 Teaser
2.1.1.8.9 Linkposition
2.1.2 HTML-Elemente
2.1.2.1 Titel
2.1.2.2 Metadaten
2.1.2.3 Überschriften
2.1.2.4 Hervorhebungen
2.1.2.5 Aufzählungen
2.1.3 Inhalt
2.1.3.1 Interessante Inhalte
2.1.3.2 Keywordposition
2.1.3.3 Keyworddichte
2.1.3.4 Keywordnähe
2.1.3.5 Flexionen & Synonyme
2.1.3.6 Dokumentenlänge
2.1.3.7 Inhaltliches Profil
2.2 Offpage-Optimierung
2.2.1 Eingehende Links
2.2.1.1 Textlinks
2.2.1.2 Linkposition
2.2.1.3 Pagerank (Link)
2.2.1.4 Linkexklusivität
2.2.1.5 Linkalter
2.2.1.6 Linkautorität
2.2.1.7 Linkpopularität
2.2.1.8 Linkwachstum
2.2.1.9 Reziproke Links
2.2.1.10 Linklisten
2.2.1.11 Kataloge
2.2.1.12 Artikelverzeichnisse
2.2.2 Popularität (Webseite)
2.2.3 Pagerank (Webseite)
2.2.4 Themenrelevanz
2.2.5 Webseitenverteilung
2.2.6 Webseitentyp
2.2.7 Klickrate
2.2.8 Aufenthaltsdauer
2.2.9 Trustrank
2.3 Häufige Fehler
2.3.1 Startseite
2.3.2 Frames
2.3.3 Duplicate Content
2.3.4 JavaScript, CSS & Flash
2.3.5 Overhead
2.4 Unseriöse Tricks
2.4.1 Keyword-Stuffing
2.4.2 Unsichtbarer Text
2.4.3 Unsichtbare Links
2.4.4 Cloaking
2.4.5 Doorway-Seiten
2.4.6 Affiliate-Programme
2.4.7 Duplicate Content