Montag, 15. September 2014

Tag 5/6: Fortsetzung Onpage-SEO, außerdem: Blog roll und ein kleiner Grey Hat Trick

Fortsetzung: Onpage-SEO

Nach der Reihenfolge, nach der die Roboter die Dateien auslesen
(1) .htaccess
(2) Robots.txt
(3) sitemap.txt
Manchmal sind sie auch da, aber auch ausgeblendet. Ich benötige dann einen FTP-Server-Zugang. Hier werden die Dateien dann eingepflegt.

.htaccess (besteht nur aus der Datei-Endung)
Bleibt leer, wird abgespeichert "Alle Dateien *.*" => Speichern

Über Ralfs Website (http://wenda-it-web.de/die-3-wichtigsten-serverdateien-im-seo/#axzz3DSO7uvwh)

oder: in google eingeben: htaccess 301 (http://suchmaschinenoptimierung.michaelsattler.de/weiterleitung.html)
Ich könnte damit Probleme auf dem Server machen, das führt dazu dass einige Server das ausschließen, dass ich mit .htaccess arbeite.




Hinein kopiert wird folgender Befehl

RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^www.science-pro.de
RewriteRule (.*) http://science-pro.de/$1 [R=301,L]

RewriteCond %{HTTP_HOST} ^www.science-pro.com  oder eine ganz andere Adresse
RewriteRule (.*) http://science-pro.de/$1 [R=301,L]

Für domain.de steht jetzt meine Seite
Ergebnis: es wird alles umgeleitet in die www-lose Adresse, wichtig ist, dass alle Besucher auf EINE Adresse, wenn man beide Adressen parallel laufen lässt, würde es sich um duplicate Content handelt.

Robots.txt
Kleine Datei, die dem Crawler sagt, was er auf unserer Seite darf oder nicht darf. Z.B. kann ich best. Seiten für ihn blockieren. Hochladen per se bedeutet: der Crawlet kann das auslesen und wirft alles ins Netz, was er findet. D.h. es liegt am Betreiber einer Seite selbst, ob ein Foto von ihm im Internet erscheint. D.h. schützenswerte Seiten sollten von vornherein für Crawlet blockiert sein, da auch die Crawler Fehler machen. Z.B. Anmeldeformular, Log in, damit niemand die hacken kann, aber auf AGB, Impressum etc. damit diese nicht kopiert werden können, eine Danke-Seite ohne sich vorher eingetragen zu haben (Danke für die Anmeldung), weil es dort vielleicht etwas kostenloses zum Downloaden gibt :)

Robots = Bots = Crawler = Spider = Skripte, die automatisch funktionieren und von Server zu Server springen, solche Skripte werden auch dazu verwendet um Viren zu identifizieren.

Bei google mal "robots.txt wordpress" eingeben

* erstellen einer robots.txt (muss im Root/Stammverzeichnis liegen, das weiss im Zweifelsfall der Web-Programmierer)

Der Befehl lautet dann:

User-agent: *
Disallow: /

User-agents sind Roboter/Crawler, also kleine Programme von google, LYcos, Bing und Co, die das Internet zu durchsuchen ...

* bedeutet: alle, d.h. in diesem Fall jeder Roboter
/ dürfen nicht ab dem Root-Verzeichnis auslesen

Wird nicht Disallow eingegeben, ist Allow Standard, man kann aber auch explizit Allow eingeben.

Man kann auch auf der Seite selbst in die Meta-Description einen Befehl setzten, wenn man z.B. am Aufbau der Seite ist, ist aber nicht garantiert, dass sich die Crawlet daran halten.

Wann mache ich das? Z. B. im Entwicklungsprozess, dann kann die Seite nur mit der URL direkt gesehen werden, wird aber nicht übers Internet gefunden.

Ist Inhalt vom mir schon indiziert, kann ich das wieder rückgängig machen, indem ich google & Co konkrete Vorschläge dazu machen kann, ob und wann die das dann löschen ist nicht klar definiert; danach muss ich aber meine Datei wieder schützen.

Cave: Wenn ich in google suche, dann suche ich NICHT im Internet sondern auf dem google-Server.

Sitemap.xml (nicht zu verwechseln mit der Sitemap.html), der Inhaltsverzeichnis für den kleinen Crawler
Sitemap-Generator (SEO von Toast macht das automatisch auch)
Frequency: none

sitemap.xml.gz

sitemap.xml

Problem: wenn man es händisch macht, müsste man mit jedem neuen Beitrag mit einem neuen Perma-Link, muss auch die Sitemap aktualisiert werden!

Vorteil bei WordPress: ein Klick, dann schreibt sich das automatisch ein (z.B. über das Plug-in SEO von Yoast, Sitemap-Generator)


HTTP-Statuscodes

404-Seite
Auch damit kann Marketing betrieben werden. SO kann sie z.B.

403-Seite
Nur für eingelochte Mitglieder. Access denied.

301
Hierzu benötige ich die .htaccess-Datei

Erstellen einer Blogroll:
* Layout => Am Rand "Gadget hinzufügen" => html/Javascript

Alternative zu Blogspot:
* über Wordpress.com => ich mache eine Subdomain, ich habe keine Toplevel-Domain

* dagegen Wordpress.org => ich nutze einen eigenen Host (Strato, 1&1), habe dafür auf eine Top level-Domain => Ist besser

* Theme-Forest für kostenpflichtige Temples, CMS für WordPress aber auch für andere (Yoomla, etc.)

Onpage-SEO für Wordpress, Blogger & Co.

Interessantes Plug-in für Wordpress für die Density, Textmenge, Titellänge etc. "WordPress SEO von Yoast", ansonsten sind die Programme schon so fit, dass es nur eine H1 gibt.

Nischenwebsite-Challenge (von Peter Wandinger, www.selbständig-im-netz.de)
Mit Leitfaden

Linktiefe:
Bsp. Blog auf Blogger: In den Perma-Link schauen!
Sublevel-Domain von Blogsopt = Tiefe 0
pro Flash geht es eine Tiefe runter, Linktiefe 1 NACH dem ersten Flash
Problem bei Blogspot: ich schreibe alles auf Ebene 3, d.h. mein Trust landet bei Blogspot! Empfehlung deshalb: immer mit eigener Toplevel-Domain arbeiten, wenn es was werden soll :)

Deshalb:
Im Gegensatz dazu:  Wordpress: die Artikel befinden sich auf Tiefe 1, also nach der Topleveldomain
Aber man muss eintragen: Permanente Links auf Beitragsname (in den Einstellungen)

Tip: Marketplace => für e-Shops
eCommerce Leitfaden (kostenlos im Netz, Uni Regensburg), Print 60 Euro
http://homepages-nw.uni-regensburg.de/~ecl60019/E-Commerce-Leitfaden.pdf

Verknüpfung mit Webmaster-Tools: also Anmeldung auf google Webmaster Tools
Anmelden mit meinem google-Profil, eine hübsche kleine und nützliche Dienstleistung

Alternative Methoden => html anklicken, die per Zufallscode generierte Zeile kopieren, dann in Vorlagen "html" in den Head-Bereich (wo genau ist egal), einfügen; der Blog sollte nicht auf Privat gestellt werden. Damit hat man identifiziert, weil davon ausgegangen wird, dass man wenn man im HTML ist auch Webmaster ist. Geht bei einem Blogspot-Blog nicht, da ich bei Blogspot nicht in die html komme.


Auch zur SEO gehören:

White hat Trick
Alles Erlaubte

Grey hat Trick
Sollte sparsam eingesetzt werden. Z.B.
h1: ich kann nicht noch mehr Key words einbringen, da nicht mehr leserfreundlich => Kommentarzeile, wird nicht angezeigt, steht nur im Quellcode
<!-- Dies ist ein Kommentar --> Der Crawler geht über das Kommentar hinweg, ABER: im Kommentarfeld wird ein html-Tag eingefügt:

<!-- <div> Keyword, möglicherweise auch in Kombination mit einem anderen Key word </div> -->

Sollte ganz oben, am besten noch VOR der h1 platziert werden.

Der Crawler liest das Kommentar dann aus.

Aber: die Konkurrenz kann ja in meinen html-Code schauen und mich verpetzen.

Übrigens: SEO Quake gibt ganz unten den Text aus, den der Crawler auch ausliest ... hier kann man schonmal sehen

Black hat Tricks
alles Unerlaubte (zu vermeiden, aber anzuwenden, wenn große Konkurrenz da ist, zeigt uns Ralf leider nicht), den Server platt legen, Virenattacke; den Suchmaschinencrawler etwas komplett anderes anzubieten als das, was der Benutzer sieht (sog. Cloaking), also eine keyword-optimierte Textseite anbieten, aber der Leser sieht z.B. nur Grafiken. Funktioniert über CSS, da dies nicht von Crawlern ausgelesen wird, jedoch eben nicht über html.

Mögliche Klausurfrage: Was sind sinnvolle Maßnahmen zur Onpage-SEO?
Antwortmöglichkeiten:
- Keyword in der Toplevel-Domain, ansonsten sollte es im Permalink sein (ist von Wordpress so programmiert, macht es automatisch so, dass die H1 zum <title> und dann in den Permalink integriert wird)
- <title> der Website => sollte Teil des Permalinks sein => Unter Einstellungen: Unterpunkt Permalinks: anklicken, dass ich das gerne als Beitrag hätte; Tipp: Mit SEO von Yoast kann ich meine Permalinks ändern, d.h. meine H1 möchte ich so lassen, aber den title und den permalink optimieren
- eine optimierte Metadescription
- einmalige Vergabe der H1 und dies möglichst am Anfang, noch vor dem Logo (sieht allerdings nicht schön aus)
- Strukturierung des Textes mit Überschriften, Zwischenüberschriften, Tabellen, Listen, Setzen von Fotos/Grafiken
- Metaangabe "description" (Metaangabe "keywords" ist für google nicht wichtig, aber für andere Suchmaschinen: Bing, Lycos, Suchnase)
- Alt-Attribut
- Ladezeiten, zu hohe Ladezeiten sind schlecht
- Dateinamen der Fotos, Grafiken etc.
- robots.txt (die Metaangabe norobots bewirkt, dass nichts auf der entpsrechenden Seite ausgelesen wird)
- eine gute Keyword-Density: beginnend bei 3% bis max. 6%
- die Textlänge, mind. 350 besser 400 Wörter, besser noch 1000 Wörter (es gibt Tests dazu, wahrscheinlich weil Mehrwert mit steigender Textlänge erzeugt)

Keine Kommentare:

Kommentar veröffentlichen