Tag 11 Themen: Squeeze Page + OnpageOptimierung mit 3 Server Dateien:
.htaccess - .robots.txt - sitemap.xml
Der Spruch des Tages:
Nein bedeutet: Noch ein Impuls notwendig.
Zitat Ralf R. Wenda, 24.07.2014
: )
Klausur: Unterschied Internet-Marketing
und Online Marketing
Internet-Marketing: Alles was sich auf der relevanten
Internetpräsenz abspielt, i.d.R. die eigene Website
Online
Marketing;
online-Maßnahmen, die sich außerhalb der eigenen Website abspielen, alles
andere wie Bannerwerbung, mit den Werbemaßnahmen teasert man an. Das sollte auf
der Internetseite dann auch wieder gefunden werden können (Landing Page) und zu den Aussagen
im Online-Marketing passen. => also: Links auf die eine entsprechende
Landing Page – Perma-Link eintragen
Zusammenspiel: Kern ist: höheren Traffic auf der
Websites zu generieren und, ZG-spezifischer Traffic auf die passende Seite zu leiten
Prinzip einer Squeeze-Page
Squeeze-Page = Landing Page mit Funktion (nicht unbedingt auf eine Seite
beschränkt!)
·
Squeeze=
engl. Ausquetschen => quetscht einen aus, kompletter Prozess des
Ausquetschens, ist rein auf die gewünschte Handlung des Rezipienten
ausgereichtet: Einsammeln der E-Mail
Adressen, Persönliche Daten, Meinungen, Kauf …
·
Funktion: Landing-Page: Lead-Generierung
·
hat
immer Call-to-action!
·
haben
bestimmte Funktion, sind keine normalen Unterseiten einer Website
·
Bauen
auf dem Prinzip des Marketing-Funnels auf
·
Der
gesamte Squeeze-Prozess kann mehrere Seiten beinhalten. Im Idealfall
wird die mittlere Seite (siehe Abb.) mit dem eigenen Angebot – schon von warmem
Traffic aufgerufen. Es gibt aber auch Seiten, die nur aus einer Seite zum
reinen E-Mail-Adressen-Einsammeln bestehen (kalter Traffic) – (wie bei Mathias
Brandmüller: Video + E-Mail-Feld).
Wenn also mehrstufig aufgebaut:
Wenn also mehrstufig aufgebaut:
·
E-Mail-Adressen-Einsammel-Seite
·
Angebots-/
und oder Partner-Angebots-Seite
·
Je
nach Traffic-Art, gelangt der Nutzer auf unterschiedliche Seiten - z.B.: kalter Traffic über Google AdWords
·
Bei
warmen Traffic, möglichst auf andere Seite gelangen lassen, denn sie haben
größere Bereitschaft, etwas für uns zu tun
Landing Pages: Hier ist das eigentliche Angebot enthalten (in Abb. Mittlere Seite,
nicht zwangsläufig auf 2. Seite!)
1.
Man
bekommt eine Seite, wo eine E-Mail Adresse drauf ist, ohne die E-Mail-Adresse
anzugeben, kommt man nicht weiter
=> a) Leads = die, die weiter gehen b) „“Verlasser“
=> a) Leads = die, die weiter gehen b) „“Verlasser“
2.
Interessierte
werden auf Folgeseite geleitet, bekommen ein bestimmtes Angebot oder auch ein
Partnerangebot
3.
Jede
Seite hat eigenes Ziel:
1.: E-Mail Markeitng – 2.: Eigenes Angebot – 3.: Partner-Angebot
1.: E-Mail Markeitng – 2.: Eigenes Angebot – 3.: Partner-Angebot
4.
Beim
nächsten Mal, könnte dann der heißr Traffic bearbeitet werden.(in Abb. rot)
Zitat Ralf : „NEIN bedeutet:
noch ein Impuls notwendig“ ; )
In der Praxis:
Wäre so eine Projekt darauf abgezielt, in der organ. Suche nach vorne kommen
–> Man würde eine Toplevel-Domain dafür anlegen (anmelden Dtschld: bei der
Denec, inkl. Speicherplatz bei Strato. 2,99 € /Monat + 10 Dollar für Mail-Chimp
(inkl.Autoresponder)
I. Landing Page über einen
extra Blog anlegen
= nur Subdomain von Blogspot
=> im Blogger neuen Blog anlegen: ich spiele das durch für Buch von Andreas
Eschbach: „Black Out“ Total vernetzt –
wo es hin gehen könnte URL:
total-vernetzt.blogspot.de – Vorlage –
Layout –: Body: 1 Spalte, Fußzeile: nur 1
| Breite: 960 (Laptop) – auf Button oben rechts: „Auf Blog anlegen“ - | Check Frontend | Zurück in Blogger:
Layout: Über mich und Blog Archiv => löschen
Grund-Post anlegen:
Im Blogger: Klick auf neuen Post:
Titel
Text:
Das Buch
Das Buch
In HTML-Modus gehen und zwischen die
<br />‘s den kopierten HTML-Code einfügen
(siehe: Artikel (Bild) einfügen!)
Der Text
Der Text
Aus Amazon Partnerporgamm auf Reiter Text gehen, dann HTML-Code
kopieren
In HTML-Modus gehen und zwischen die
<br />‘s den kopierten HTML-Code einfügen
Artikel (Bild + Bild)
einfügen:
Amazon Partnerprogramm öffnen - Buch raussuchen – link erstellen – html Code von
Reiter „Bild“ kopieren –
Einschub: wir nehmen: nur
Bild: ABER Empfehlung: weil bei aktivem AdBlocker das Bild nicht
angezeigt würde: normalerweise: immer
richtige (eigene) Bilder einklinken (ohne Werbe-Link) -> mittels Bild_Icon
im Blogger einklinken, und ein zusätzliches mit Call to action einbauen –
Um auch bei Aktiven AdBlocker ein Buch
angezeigt zu bekommen, klinken wir für noch ein „normales“ Bild ein => in
der normalen Amazon-Website auf das Buch gehen – Rechtsklick aufs Bild –
„Grafikadresse kopieren“ das ist dann ein PermaLink zu dem Bild – im Blogger:
Post bearbeiten: über Icon Bild einfügen: links auf Option „von einer URL“ in
die URL Zeile: Strg + V (so könnte man übrigens auch Bilder von einer Website
hinzufügen):
Text
schreiben => siehe weiter unten unter Grundprinzipien!
Unten drunter
Datenschutz
(von Peer Wandinger Solarsache geklaut) und Impressum
Schritt II + III:
Andocken der Landing Page an Webmaster Tolls und
Google-Analytics
Ziel: ausreichende Statistiken +
Techniken bekommen
II. Verknüpfung mit Webmaster Tools einbinden
Google – Google Analytics raussuchen –
anmelden | Button: Website hinzufügen – total-vernetzt.blogspot.de-
Inhaberscahft bestätigen (bie blogspot kommt man nicht auf eine HTML Datei,
weil man nicht auf den Root-Server kommt) deshalb: Reiter „Alternative Methode“
Klick: HTML-Tag – meta Angabe: Strg + C -> dies in Headbereich des Blogs
kopieren (Vorlge, HTML bearbeiten – unter <head> Leerzeile einfügen –
Strg + V – Vorlage speichern – Zurück in webmaster –Tool: Bestätigen Button
klicken – weiter (das Crawiling Rädchen rattert und ratter – ggf. auf Kto, und
dort Sprache einstellen – auf Logo Webmaster Tools -> normaler Eintrag,
=> jetzt können Daten in den Crawler aufgenommen werden
III. Verknüpfung mit Google Analytics einbinden
Anmelden | Passwort | Tutorials kann
man übergehen | auf Website verfassen Kto. Name „TestkontoSR“ – name Website:
SRLandingpage – URL: Adresse des neuen Blogspots eingeben (Achtung: http nicht
doppelt!) – Branche: z.B. Online Community – Zeitzone: Deutschland (MGZ +01:00
Berlin) – runter scrollen: alle Häkchen lassen! – Button „Tracking ID abrufen“,
Button „Ich stimme zu“ | UA-Nummer: Auf Universal Analytics umstellen – wählen
sie ein Konto auf Property – wegklicken – runter scrollen Tracking Code wenn
dort steht ga create und ga send => alles gut ;)
UA-Nummer kopieren – zurück in den
Blogger. Einstellungen – sonstiges (unten) runter: Google Analytics Strg + V –
oben rechts: Button „Einstellungen speichern“
ð
Die Landing Page ist nun mit Webmaster
Tools und Google Analytics verknüpft,
bis das Tracking aktiv ist, dauert es ca. 48 Stunden
Tabs schließen,
3 Server-Dateien für eine
SEO-Optimierung =
SEO-Technik!!!
Wir sehen uns das Video an:
http://wenda-it-web.de/die-3-wichtigsten-serverdateien-im-seo/#axzz38HYA7J3h
.htaccess = bildhaft: Wegbeschreibung ins Restaurant
=> technisch: .thaccess umschreibt Permalinks, schützt bestimmte Bereiche, umschreibt ob Domain mit oder ohne www verzeichnet ist => Definiert die www-Klärung, definiert Umleitungen etc.
=> technisch: .thaccess umschreibt Permalinks, schützt bestimmte Bereiche, umschreibt ob Domain mit oder ohne www verzeichnet ist => Definiert die www-Klärung, definiert Umleitungen etc.
Wann permanente Umleitung auf andere
Arbeitsdatei, traffic-.relevante
Sie ist die einzige Datei, die man in Blogspot nicht anpacken kann, man darf
es auch nicht!, weil sie ins root-Verzeichnis eingreifen muss – logisch: man
darf das System nicht umleiten.
http_Reponse-Codes
301-Weiterleitung: Rewrite R=301,L = permanente Umleitung =>
Trust-Verhältnis, PageRank … alles wird weiter gerechnet auf die neue Seite,
auf die umgeleitet wird
R= 302 = kurzfristige
Umleitung (Baustellen-Seiten etc.)
Abb.: blau unterlegt: http-Response-Code für www-Klärung => sie sagt aus,
dass wenn jemand die www-Adresse der-experte-fuers-handwerk aufruft,
automatisch auf die web Adresse (hier: wenda-it-web.de umgeleitet wird (neue
Adresse = 301 = dauerhafte Umleitung)
RewriteCond … verweist auf RewriteRule …
RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^domain.de
RewriteRule (.*) http://www.domain.de/$1 [R=301,L]
RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^domain.de
RewriteRule (.*) http://www.domain.de/$1 [R=301,L]
robots.txt
= bildhaft:Türsteher => dem Crawler wird ein
Tisch zu gewiesen
=> technisch: sagt robots, was darf indexiert werden und was nicht. Google liest dann nur optimierte Seite aus. (Dies ist rein hinweisend und auf „Freundliche Webcrawler“ angewiesen. Garantiert also die Geheimhaltung nicht)
=> technisch: sagt robots, was darf indexiert werden und was nicht. Google liest dann nur optimierte Seite aus. (Dies ist rein hinweisend und auf „Freundliche Webcrawler“ angewiesen. Garantiert also die Geheimhaltung nicht)
sitemap.xml
= bildhaft: Speisekarte
=> Zugriff beschleunigen, sitemap.xml-Datei sagt aus, was auf der Seite zu finden ist, Crawler kennen dann die Seite schon, kennt jede einzelne URL, braucht nur die neuen Inhalte auslesen, weil Crawlern nur bestimmte Zeit auf website verbringen
=> Zugriff beschleunigen, sitemap.xml-Datei sagt aus, was auf der Seite zu finden ist, Crawler kennen dann die Seite schon, kennt jede einzelne URL, braucht nur die neuen Inhalte auslesen, weil Crawlern nur bestimmte Zeit auf website verbringen
=> Ziel: Aller 3 Dateien
·
Beschleunigung
der Zugriffe und Auffindbarkeit für Webcrawler
·
Dienen
dazu, die Seiten fehlerfrei auszulesen
·
Nur
über die htaccess kann man eine www-Klärung vornehmen.
Ergänzend zu robots.txt:
Nach der Übereinkunft des Robots-Exclusion-Standard-Protokolls
liest ein Webcrawler
(Robot) beim Auffinden einer Webseite zuerst
die Datei
robots.txt
(kleingeschrieben) im Stammverzeichnis („root“) einer Domain. In dieser Datei kann festgelegt werden,
ob und wie die Webseite von einem Webcrawler besucht werden darf. Website-Betreiber
haben so die Möglichkeit, ausgesuchte Bereiche ihrer Webpräsenz
für (bestimmte) Suchmaschinen zu sperren. Das Protokoll ist rein
hinweisend und ist auf die Mitarbeit des Webcrawlers angewiesen. Man spricht
hier auch von „freundlichen“ Webcrawlern. Ein Ausgrenzen bestimmter Teile einer
Webpräsenz durch das Protokoll garantiert keine Geheimhaltung
Robots-Datei:
Im Blogspot bauen wir die robots.txt-Datei
ein:
Einstellung – Sucheinstellungen –
robots.txt -> aktivieren, hier könnte man selber Seiten aussparen (wir
schauen uns die Robots-Datei von Ralf an). Würde man z. B. nur die
letzten beiden Zeilen einbauen:
User-agent: *
Disallow: /
User-agent: *
Disallow: /
Bedeutet:, dass / = Stammverzeichnis
auf unserem Server, * = alle => alle Robots dürfen nicht in das
Root-Verzeichnis schauen, Das nutzt man wenn eine Website noch im
Baustellen-Modus ist.
Simple Editor-Datei in nur robots.txt => in root-Verzeichnis unserer Website
speichern.
User-agent: *
ð
Diese
Verzeichnisse/Dateien sollen nicht durchsucht werden
Ralf schließt also für die Robots den Ordner wp-admin und wp-includes aus, das letzte ist ein Foto von einer Teilnehmerin, das Ralf zwar verwenden darf, was aber die Crawler nicht indexieren sollen /text/ zwei // zeigt, hierh geht es um Ordner
Klausur: Befehle nicht
wichtig, man sollte wissen, was die robots-txt Datei macht!
Sitemap.xml
Wir gehen auf den xml-sitemap
Generator (ausgoogeln!) revisit after
– bedeutet: komm zurück auf meine Seite, und komm (z.B.!) jede Stunde vorbei,
dann sollte man aber auch (hier dann stündlich) etwas Neues anbieten können –
die sitemap.xml Datei braucht der Crawler, hier nur URL # Titel -> man
müsste für jede Seite, die man baut dieses Prozedere machen, CMS machen dies
automatisch! Auch setzen die Admins solche Dateien ein – sollten sie zumindest
-! RSS baut auf gleicher Technologie auf,
=> Simulieren einer regelmäßigen Akutalisierung einer Sitemap-Datei
=> Simulieren einer regelmäßigen Akutalisierung einer Sitemap-Datei
Jetzt folgt nur ein kleiner Anriss – sorry, dies ist mir zu
technisch und zu weit weg vom Online-Marketing
In Blogspot:– unten: auf abonnieren
klicken - oben URL rauskopieren: feeds/post/ … kopieren -> in webmaster
angeben …
- - - - - - - - - - -
Zurück
zur LandingPage
Inspirationen holen bei …
Inspirationen holen bei …
·
v2.affenbuch.com/pages/
=> Sehr gut!!! : )
Grundprinzipien beachten:
AIDA-Formel
Die 4 Lerntypen nach Briggs
emotional, rational, Schritt-für-Schritt, Konkrete Aufruf-Reagierer
emotional, rational, Schritt-für-Schritt, Konkrete Aufruf-Reagierer
Die 6 Schlüssel aus der Verkaufspsychologie nach Dr. Cialdini => Inhalt entsprechend aufbereiten
·
Reziprozität => etwas geben => Content liefern
·
Konsistenz
=> verbindlich, konsequent
·
Sympathie
=> Gemeinschaft schaffen, Komplimente machen
·
Autorität
=> ggf. mit eigenen Erfahrungen, Titeln,…
·
Social-Proof
=> Testimonials, Zahlen, wieviele damit schon Erfolg hatten, Case Studies
·
Künstliche
Verknappung => Schnäppchen, zeitlich limitiert, Rabatte …
ZG-orientierte Ausrichtung (Inhalt + Aufmachung)
... weiter
AIDA
Desire
=> Verlangen, Besitzwunsch wecken
Action: => Bestell-Button oder
ähnliches
Keine Kommentare:
Kommentar veröffentlichen