Dienstag, 22. Juli 2014

Tag 9 - SEO On-Page-Optimierung



Tag 9 - 22.07.2014
Themen: SEO - Keyword

Ich hatte heute leider immer wieder Netzwerkabstürze und musste mich x mal neu einloggen. Daher ist der Eintrag auch erst heute - am Folgetag - im Blog. Gegebenenfalls ist die Mitschrift nicht vollständig. Sorry vorab.


SEO - Tool Keyword-Planner
Es ist auch möglich, Wörter zu testen und direkt in Anzeigen einzubauen
·         Ideen für neue Anzeigengruppen - Register: Anzeigengruppen-Ideen (z.B. unter Abnehmtipps (13) => zeigt: Google würde unter dieser Gruppe 13 Keywords vorschlagen) – man kann sich die 13 Wörter anschauen, indem man es anklickt
·         Dies kann man in Kampagne übertragen: über Button oben rechts „alle hinzufügen , oder auf blauen Pfeilbutton rechts in der Zeile der Anzeigengruppenidee => Auswurf von Tagesschätzungen an Klicks (Rechts erscheint der Traffic-Estimator) = für grobe Einschätzung => auf + (damit übernimmt man die Wörter in eine neue Anzeigengruppe) => Button „im Konto speichern“
·         Zur Einschätzung: eine CTR von 1,7 % ist super!
·         Wir sehen uns die Website „Dating Skills“ von  Chris R…  und Darius Küller, aus Wetzlar => Anwendung AIDA vom Feinsten ;) http://www.datingskills.de/

Bewertung der Platzierung auf den SERPs:
=> Es ist nicht unbedingt eine positive Aussage, dort ganz oben zu sein - !
Denn, wenn nach dem  Begriff keiner sucht (wie in Ralf’s Beispiel „Digitales Sampling“ => er war an 2ter Stelle auf der ersten SERP zu dem Suchbegriff und stand direkt unter Wikipedia. ABER: danach sucht keiner! => im Keyword-Planner schauen, wie hoch die durchschnittlichen Suchanfragen pro Monat sind - !!!



Hier am Beispiel „fliesenleger dortmund“ durchschnittliche Suchanfragen /Monat: 210


Exkurs in  HTML (SEO mit Keywords)   zum Besseren Verständnis / Hintergrundwissen
HTML ist keine Programmiersprache, sondern nur Deklariersprache (Seitenbeschreibungssprache)
Siehe auch unter:. http://www.w3schools.com/  hier auch gute Infos zu Blackhead, Whitehead, jQuery etc gute Tutorien ;)
Für unsere „erste Website“ brauchen wir nur den Texteditor!!! => dort geben wir ein:

<html>
<head>
<title> Keyword im Titel </title>
<meta content="Keyword in der Beschreibung. Schauen Sie jetzt vorbei!" name="description">
<meta content="Keyword, Keywords in Abwandlung" name="keywords">
<meta content="noindex,nofollow" name="robots">
</head>
<body>

<!-- <div> Keyword und noch mehr Variationen zu diesem Keyword </div> //-->
<!-- Dies ist ein Kommentar, der nicht im Browser angezeigt wird. //-->

<h1> Keyword möglichst in der Überschrift </h1>
<h3> Keyword auch in den Unterüberschriften (hier z.B. in der h3) </h3>
<p> Mein erster Absatz </p>
<p> </p>
<ul>
<li> Keyword in Punkt 1 </li>
<li> Keyword in Punkt 2 </li>
<li> Hier mal kein Keyword :) </li>
</ul>
<p></p>
<p>
<table border="1">
<tbody>
<tr>
<td> Keyword in der Tabelle </td>
<td> Noch ein Keyword </td>
</tr>
<tr>
<td> xyz </td>
<td> abc </td>
</tr>
</tbody>
</table>
</p>
<p>
<img width="200" title="Keyword im Titel" alt="Keyword auch im Alt-Attribut" src="Keyword.jpg">
</p>
</body>
</html>

Und speichern wie folgt:
Speichern unter: Alle Dateien | Dateiname: index.html | Codierung: UTF-8
Auf den Desktop – anklicken – wir sehen unsere erste Website ;)
Der Titel (direkt oben im Head: title-tag = <title> … </title>) ist neben der Domain der wichtigste Faktor für die Suchmaschinen-Optimierung!!!
Grundsätzlich das Keyword immer so weit wie möglich vorne positionieren!
Das Keyword sollte man natürlich vorher gecheckt haben => Keywordplanner!!!
(auch unter Peer Wandiger schauen!!!   gleich kommt noch weiteres Beispiel J )
Wo kommen die einzelnen Texte her:
1. Kasten (rot, oben): Title
2. Kasten (rot, Mitte) : Domain-Name
3. Kasten (grün, unten): Description

Meta-Angaben
Die wichtigsten: Description und Keywords
<meta content="Keyword in der Beschreibung. Schauen Sie jetzt vorbei!" name="description">

Folgend ergänzend dazu siehe:

http://de.wikipedia.org/wiki/Meta-Element#Anweisungen_f.C3.BCr_Webcrawler


Seitenbeschreibung

<meta name="description" content="Lorem ipsum dolor sit amet, consetetur sadipscing elitr." />
Kurze Beschreibung oder Abstract des Inhalts der Webseite.

Stichwörter

<meta name="keywords" content="Stichwort 1, Stichwort 2, Stichwort 3" />
Nennt Stichwörter oder Themen, die auf der Webseite vorkommen bzw. behandelt werden. Die Stichwörter werden durch Kommata voneinander getrennt, zur Verbesserung der Menschenlesbarkeit wird nach dem Komma oft ein Leerzeichen eingefügt.


Danach kommen die Meta-Angaben = globale Beschreibung des Dokumentes, das man entwickelt => sagt, um was es sich hier handelt, für die reine maschinelle Verarbeitung gedacht, dies wird von Suchmaschinen ausgelesen und dort auch angezeigt, Für den Nutzer sind die Meta-Angaben aber nicht sichtbar.

Klausur
Meta-Stichwörter werden nicht mehr von Google bewertet!
Beispielfrage: Welche Vorgehensweisen sollten sie für die Onpage-Suchmaschinenoptimierung auf jeden fall machen? => für Google ist die Meta-Angabe Keywords nicht relevant!
meta name=“keywords“ content=“Stichwort1, Stichwort 2, Stichwort 3“ /> ABER:  andere Suchmaschinen (z.B. Öko…) werten sie schon aus - !
=> Deshalb Meta-Angaben drin lassen!!!
Nennt Stichwörter oder Themen, die auf der Website vorkommen bzw. behandelt werden. Die Stichwörter werden durch Kommata voneinander getrennt zur Verbesserung der Menschenlesbarkeit wird nach dem Komma oft ein Leerzeichen eingefügt.
Web 3.0 alles wird mittlerweile getagt und immer mehr personalisiert, die Suchmaschinen-Optimierung wird immer spannender

Einschub aus:

Anweisungen für Webcrawler

<meta name="robots" content="index,follow" />
Alternativ kann auch:
<meta name="robots" content="all" />
verwendet bzw. auf den Code ganz verzichtet werden.
Der Webcrawler (Suchroboter) soll die Webseite ausdrücklich in den Suchmaschinen-Index aufnehmen, damit sie auffindbar ist, und den Hyperlinks auf der Seite folgen. Diese Angabe ist im Allgemeinen unnötig, da sie dem normalen Verhalten der meisten Webcrawler entspricht.
<meta name="robots" content="noindex" />
Der Suchroboter soll die Webseite nicht in den Index aufnehmen. Die Webseite soll also nicht über Suchmaschinen auffindbar sein. Siehe auch: Robots Exclusion Standard.
<meta name="robots" content="nofollow" />
Der Suchroboter darf die Webseite zwar aufnehmen, aber soll den Hyperlinks auf der Seite nicht folgen. Die Wirkung ist so, als wären die Links auf der betreffenden Seite gar nicht vorhanden. Derselbe Effekt lässt sich auch für einzelne Links erreichen, indem diese um das Attribut rel="nofollow" ergänzt werden. (siehe nofollow)
<meta name="robots" content="noodp" />
Die Suchmaschine soll auf der Ergebnisseite nicht die Beschreibungstexte des Open Directory Projects verwenden – sofern die Seite dort eingetragen ist  –, sondern wie bei nicht eingetragenen URLs einen Ausschnitt der Seite selbst (sog. „Snippet“) anzeigen. Diese Anweisung wird von Google und MSN Search unterstützt.
<meta name="robots" content="noydir" />
Die Suchmaschine soll auf der Ergebnisseite nicht die Beschreibungstexte aus dem Yahoo-Verzeichnis verwenden – sofern die Seite dort eingetragen ist  –, sondern wie bei nicht eingetragenen URLs einen Ausschnitt der Seite selbst. Diese Anweisung wird nur von Yahoo (Robot: Slurp) unterstützt.


Funktionsweise der Crawler
=> Wie wird eine Website bei Google aufgenommen?

Ralf's kleine Crawler-Story  : )
Crawler
– Software – sind kleine Mini-Programmschnippsel, die in erster Linie versuchen herauszufinden, ob es etwas Neues gibt!!! Sie besuchen gerne bekannte websites, weil diese häufig verlinkt werden. Deshalb ist Wahrscheinlichkeit sehr hoch, dass sie häufig bei den großen Seiten vorbei kommen. Wenn dort ein Verweis auf unsere Seite ist, springt der Crawler auf den Link, vergleicht den URL, sieht, dass er noch nicht in seinem Register ist und ruft „seinen großen Bruder“, der sich das bei Gelegenheit anschaut, der kleine Crawler schaut weiter  - der große Bruder arbeitet nach und nach die Liste ab, scannt unsere Seite, schaut wieviel Bilder darauf sind, wieviel Text darauf ist, welche Sprache, um welches Thema es geht und vergleicht mit allen Seiten zu dem Thema, die es schon im Index gibt. Wenn es dort schon x-beliebige Texte gibt – kommen sie noch nicht in den Google-Index, erst wenn es etwas ganz neues gibt.
Mit der Meta Angabe robots  werden die Webcrawler angesprochen.

<meta name=“robots“ content=“index, follow“ />
=> bedeutet: er darf die Seite indexieren und er darf den Links folgen

… content=“noindex“ />
=> bedeutet: er darf die Seite nicht indexieren

… content=“nofollow“ />
=> bedeutet: er darf den Links nicht folgen

nofollow
=> Das macht man, wenn der Link thematisch mit der eigenen Website gar nichts zu tun hat. HG: E-Recht => Robot würde sonst die Verhältnismäßigkeit berechnen, man wird damit in Verbindung bringt.
Man kann solche nofollows auch einzelnen Links zuordnen, => über href mit Attribut rel nofollow (an Folgetag/en detailliert!)
ABER: dies würde man nicht in den Headbereich schreiben, sonst würden alle Links, die auf meiner Seite sind, kategorisch vom Folgen ausgeschlossen werden

html-Code wäre dann:
<meta content="noindex,nofollow" name="robots" />

Cloaking = Seiten vertuschen, Umleitung des Robots auf eine Keyword-optimierte Seite (viel Text) Beipiel: BMW => hat der wirkliche Besucher nie gesehen, der ist auf ganz normale Seite geleitet worden, mit viel Bildern. ABER: für Suchmaschinen kein Problem mehr! IP-Ranges von Servern…
Cloaking (to cloak = verhüllen) => großflächiges automatisiertes Linkbuilding (automatisches Erzeugen von Backlinks, weil dies ja für das Ranking so wichtig ist) =>  Irreführung des Suchmaschinen-Crawlers

aus: http://de.wikipedia.org/wiki/Cloaking

Cloaking
(engl. verhüllen) ist eine Technik zur Suchmaschinenoptimierung, bei der dem Webcrawler der Suchmaschinen unter der gleichen URL eine andere Seite präsentiert wird als dem Besucher. Sie dient zur Verbesserung der Rangordnung in Suchmaschinen und der Indexierung.
Ziel des Cloakings ist es, gleichzeitig eine für Suchmaschinen und Besucher optimierte Seite zu präsentieren. Da Suchmaschinen primär Textinhalte verarbeiten und indexieren, wird ihnen eine textbasierte, strukturell optimierte HTML-Seite ausgeliefert. Menschliche Besucher, die einen Browser benutzen, erhalten dagegen für die gleiche URL eine für sie optimierte Seite. Diese kann beispielsweise multimediale Inhalte wie Flash-Filme oder Videos enthalten, deren Inhalte für Suchmaschinen unsichtbar sind. Der Verfasser kann mit dieser Methode etwa auch seine Optimierungsmethoden vor den Augen der Konkurrenz schützen.


Wie suchen die Suchmaschinen und wie wird ausgewertet:
=> vom Algorithmus her werden sie von künstlicher Intelligenz programmiert. Vorangestellt sind regelmäßige Erhebungen von Testgruppen. Diese bekommen Websites vorgelegt und beurteilen websites (noch richtig mit Stift und Zettel ;)) bewerten was gefällt, was nicht, (Farben, Aufmachung, Inhalte …) => All das wird mathematisch über Algorithmen wieder in die künstliche Intelligenz eingefügt (Googles Geschäftsgeheimnis!) So entstehen auch die über 200 Kriterien zur Auswertung von Websites, Die Gewichtung der Kriterien ist geheim und die Kriterien unterliegen einem ständigen Wandel.

=>  Niemals einem Kunden versprechen, dass man ihn unter seinem Wunschwort auf die erste SERP bringt!

Man baut sich statt dessen ein schönes Zielgebäude, es gibt ja nicht nur SEO!
Man kann das Unternehmen seines Kunden ja auch über SEA (Anzeigen!), E-Mail-Marketing, Guerilla-Marketing etc. nach vorne bringen.

Einschub Übrigens: Guter Agentur-Test ;) => ob sie Matt Cutts kennen und was er als letztes denn so gesagt hat. ;)  Das ist Google heiligster SEO-Sprecher


Auch Kommentare kann man gut für Tricks anwenden. Reine Kommentare werden nicht von Google ausgelesen werden.
Reiner Kommentar:
 <!—Dies ist ein Kommentar, der nicht im Browser angezeigt wird. //à
ABER: Man kann in die Kommentare auch Div-Container einbauen:
<!-- <div> Keyword und noch mehr Variationen zu diesem Keyword </div> //-->
Hier geht Google davon aus, dass dies versteckter Inhalt ist, zu dem die Absicht besteht, ihn wieder einzublenden, => es wird in die Bewertung mit einbezogen. => Empfehlung: nicht sehr häufig einsetzen! Höchstens 1x. Solange es noch geht, kann man hier Keywords reinlegen. Sobald aber bekannt wird, dass Google auch diese auskommentierten Div-Container erkennt => sofort raus nehmen-!
Suchmaschinen Roboter gehen davon aus, dass das was vorne steht, am wichtigsten ist.
Checken kann man das so:(es geht auch mit: Spider Simulator googlen und raussuchen) => wir nehmen dafür unser Tool SEOquake – und checken die Keyword Densitiy unserer kleinen – im Editor geschriebenen – website - => zu hohe Keyword Density (18,.. % -!) => wir würden nicht indexiert bei Google L



Klausur:
·         Was macht man mit Meta Tags?
·         Keywords sollte man auch in die Alt-Attribute der Bilder schreiben etc.

Klausur:
·         Pro Seite und Unterseite nur eine H1 !!!
·         Aber ruhig mehrere Unterüberschriften (geht bis H6)


Trick: H1 Überschrift, gespickt mit Keywords,  in CSS Datei über Klassen verschachtelt und weiß angelegt => sieht man auf der Seite als Besucher nicht, bringt aber im Ranking nach vorne.


Solche Maßnahmen nur in hartem Konkurrenz-Umfeld anwenden => wenn man nicht anders an der Konkurrenz vorbei ziehen kann, z.B nicht im Domain-Alter und oder über ständigen Besucher-Traffic

Listen-Elemente
Das nächste, was die Suchmaschine nach der Schlagzeile lieben, sind Listen-Elemente, Wichtig, dass das Keyword hier entsprechend präsent vorkommt. Am Anfang eienr Seite soll der Besucher sofort eine Übersicht bekommen, was ihn auf der Seite erwartet. Im Blogspot: kann man dafür den  Listen-Button anwenden. Suchmaschinen bewerten nach Strukturen wie Überschriften und Zwischenüberschriften etc.
ul  = unsorted List mit ihren Listenelementen <li>Keyword in Punkt 1 </li>
Html-Code:
<ul>
<li> Keyword in Punkt 1 </li>
<li> Keyword in Punkt 2 </li>
<li> Hier mal kein Keyword :) </li>
</ul>

Gute Hinweise
siehe auch unter: Der perfekte Blogpost (Affenblog) -!

Tabellen
ABER: nicht alles in eine Tabelle bauen!!! (das war 90er)
Tabellen für  Layout sind out! : )

Besser: nutzen für Zahlen Metriken und Dimensionen, Keywords dann in Überschriften und Labels einbauen!! ,=> immer wenn es um Messzahlen geht.
Suchmaschinen wollen Informationen als Tabelle raus geben.

Bilder
Auch bei den Bildern kann man sein Keyword unterbringen – mehrfach sogar:
Empfehlung: im Namen möglichst das Keyword auf das ich pro Seite/Unterseite optimiere. => weitere Empfehlung:  Immer (nur) komplett für 1 Wort auf eine Seite optimieren (Ausnahme: mehr als 1 Keyword funktioniert, wenn es sehr verwandte Wörter sind, dann ist auch die „Unterbringung von 2 Keywords ok)
3 Möglichkeiten, das Keyword in Bildern zu platzieren:

1.    Src = Name des Bildes (und der Pfad)
2.    Title Tag macht, die Anzeige, die man sieht, wenn man mit Mouse auf Title geht.
3.    Alt Tag ist das, was man mit Screenreader (Sehbehinderte!) vorgelesen bekommt, oder wenn es Ladefehler beim Server gibt.

HTML- Code:

<img width="200" title="Keyword im Titel" alt="Keyword auch im Alt-Attribut" src="Keyword.jpg">


3 „Darf-Kategorien“ beim Ranking-Tuning:
Bei den Tricks, die man anwenden kann, um im Ranking nach oben zu kommen wird  unterschieden in …: und zwar inwiefern sie den Suchmaschinen-Richtlinien entsprechen => Richtlinien für Webmaster = Leitfaden, den alle großen Suchmaschinen haben => zu: Gestaltung, Inhalt und Technik sowie Qualitätsrichtlinien => Google möchte die Qualität der eigenen Suchergebnisse sicher stellen.

1.   
White-Hat-SEO = alle sauberen Methoden der SEO

2.   
Grey-Hat-SEO = Grauzone genau zwischen akzeptiert und nicht akzeptiert, dies sind die Tricks, bei denen Suchmaschinen schon Probleme haben, sie zu erkennen:
a.    Versteckte div Container
b.    H1 mittels CSS verstecken (weiß auf weißem Grund)
c.    Hinter anderem Layer verstecken 

3.    Black-Hat-SEO = Versuche der Suchmaschinen-Optimierung, die gegen die Suchmaschinen-Richtlinien verstoßen. z.B.: DOS-Attacke auf Konkurrenten-Server => VORSICHT !!!! höchstens kurzfristig erfolgreich
Am häufigsten vertreten:
Cloaking (to cloak = verhüllen) => großflächiges automatisiertes Linkbuilding (automatisches Erzeugen von Backlinks, weil dies ja für das Ranking so wichtig ist) =>  Irreführung desSuchmaschinenn-Crawlers, indem er andere Inhalte angeboten bekommt als der Nutzer (=> Beispiel BMW! website erschien erstmal nicht mehr)
Keyword-Stuffing
: Über-Optimierung der Keyworddichte

=> Penalty (engl.: = Sanktion) bei Keyword-Stuffing, wird dann 30 Plätze nach hinten geschmissen, oder komplette Kategorie fliegt raus



Aufgabe: Vernünftige Keyword-Dichte hinzubekommen. Knapp über 2%!
Knapp über 2 zu Beginn, => dann lässt sich der Text gut lesen.

Verlinkungen und Verweise. Auf morgen verschieben. HyperReferenzes morgen.
Datei in Anlagen!!!
Mit SEOquake umgehen!!!

Hyperlinks
Haben die Möglichkeit in der Universial Serach mit ausgelesen zu werden.
Dazu morgen mehr.





1 Kommentar:

  1. Mit besonders großem Interesse habe ich Ihre Einträge studiert. Das Thema Internetmarketing wird im deutschsprachigen Raum sicherlich ebenfalls weiter Fuß fassen. Ihre Codebeispiele sind hierbei äußerst hilfreich. Damit sind Sie Ihrer Zeit bereits weit voraus mit diesem Blog, der Ähnlichkeiten zu http://dating-skills.com aufweist. Gerne empfehle ich Ihre Seite an Freunde und Bekannte weiter. Sicher werden Sie auf dieser Seite fündig. Mit den besten Grüßen, Georg S.

    AntwortenLöschen