Donnerstag, 24. Juli 2014

11 - Squeeze-Page + 3 Server Dateien



Tag 11 Themen: Squeeze Page + OnpageOptimierung mit 3 Server Dateien: 
.htaccess - .robots.txt - sitemap.xml

Der Spruch des Tages:
Nein bedeutet: Noch ein Impuls notwendig.
Zitat Ralf R. Wenda, 24.07.2014
: ) 




Klausur: Unterschied Internet-Marketing und Online Marketing
Internet-Marketing: Alles was sich auf der relevanten Internetpräsenz abspielt, i.d.R. die eigene Website
Online Marketing; online-Maßnahmen, die sich außerhalb der eigenen Website abspielen, alles andere wie Bannerwerbung, mit den Werbemaßnahmen teasert man an. Das sollte auf der Internetseite dann auch wieder gefunden werden können (Landing Page) und zu den Aussagen im Online-Marketing passen. => also: Links auf die eine entsprechende Landing Page – Perma-Link eintragen
Zusammenspiel: Kern ist: höheren Traffic auf der Websites zu generieren und, ZG-spezifischer Traffic auf die passende Seite zu leiten



Prinzip einer Squeeze-Page


Squeeze-Page  =  Landing Page mit Funktion   (nicht unbedingt auf eine Seite beschränkt!)
·         Squeeze= engl. Ausquetschen => quetscht einen aus, kompletter Prozess des Ausquetschens, ist rein auf die gewünschte Handlung des Rezipienten ausgereichtet:  Einsammeln der E-Mail Adressen, Persönliche Daten, Meinungen, Kauf …
·         Funktion: Landing-Page: Lead-Generierung
·         hat immer Call-to-action!
·         haben bestimmte Funktion, sind keine normalen Unterseiten einer Website
·         Bauen auf dem Prinzip des Marketing-Funnels auf
·         Der gesamte Squeeze-Prozess kann mehrere Seiten beinhalten. Im Idealfall wird die mittlere Seite (siehe Abb.) mit dem eigenen Angebot – schon von warmem Traffic aufgerufen. Es gibt aber auch Seiten, die nur aus einer Seite zum reinen E-Mail-Adressen-Einsammeln bestehen (kalter Traffic) – (wie bei Mathias Brandmüller: Video + E-Mail-Feld).
Wenn also mehrstufig aufgebaut:
·         E-Mail-Adressen-Einsammel-Seite
·         Angebots-/ und oder Partner-Angebots-Seite
·         Je nach Traffic-Art, gelangt der Nutzer auf unterschiedliche Seiten - z.B.:  kalter Traffic über Google AdWords
·         Bei warmen Traffic, möglichst auf andere Seite gelangen lassen, denn sie haben größere Bereitschaft, etwas für uns zu tun


Landing Pages: Hier ist das eigentliche Angebot enthalten (in Abb. Mittlere Seite, nicht zwangsläufig auf 2. Seite!)

1.    Man bekommt eine Seite, wo eine E-Mail Adresse drauf ist, ohne die E-Mail-Adresse anzugeben, kommt man nicht weiter
=> a) Leads = die, die weiter gehen    b) „“Verlasser“
2.    Interessierte werden auf Folgeseite geleitet, bekommen ein bestimmtes Angebot oder auch ein Partnerangebot
3.    Jede Seite hat eigenes Ziel:
1.:  E-Mail Markeitng    2.: Eigenes Angebot   3.: Partner-Angebot
4.    Beim nächsten Mal, könnte dann der heißr Traffic bearbeitet werden.(in Abb. rot)
Zitat Ralf : „NEIN bedeutet: noch ein Impuls notwendig“ ; )


In der Praxis: Wäre so eine Projekt darauf abgezielt, in der organ. Suche nach vorne kommen –> Man würde eine Toplevel-Domain dafür anlegen (anmelden Dtschld: bei der Denec, inkl. Speicherplatz bei Strato. 2,99 € /Monat + 10 Dollar für Mail-Chimp (inkl.Autoresponder)

I. Landing Page über einen extra Blog anlegen
 = nur Subdomain von Blogspot
=> im Blogger neuen Blog anlegen:  ich spiele das durch für Buch von Andreas Eschbach: „Black Out“  Total vernetzt – wo es hin gehen könnte   URL: total-vernetzt.blogspot.de – Vorlage – Layout –: Body: 1 Spalte, Fußzeile: nur 1  | Breite: 960 (Laptop) – auf Button oben rechts: „Auf Blog anlegen“  - | Check Frontend | Zurück in Blogger: Layout: Über mich und Blog Archiv => löschen
Grund-Post anlegen:
Im Blogger: Klick auf neuen Post: Titel
Text:
Das Buch
Das Buch
In HTML-Modus gehen und zwischen die <br />‘s den kopierten HTML-Code einfügen
(siehe: Artikel (Bild) einfügen!)

Der Text
Der Text
Aus Amazon Partnerporgamm  auf Reiter Text gehen, dann HTML-Code kopieren
In HTML-Modus gehen und zwischen die <br />‘s den kopierten HTML-Code einfügen

Artikel (Bild + Bild) einfügen:
Amazon Partnerprogramm öffnen -  Buch raussuchen – link erstellen – html Code von Reiter „Bild“ kopieren –
Einschub: wir nehmen: nur Bild: ABER Empfehlung: weil bei aktivem AdBlocker das Bild nicht angezeigt würde: normalerweise: immer richtige (eigene) Bilder einklinken (ohne Werbe-Link) -> mittels Bild_Icon im Blogger einklinken, und ein zusätzliches mit Call to action einbauen –
Um auch bei Aktiven AdBlocker ein Buch angezeigt zu bekommen, klinken wir für noch ein „normales“ Bild ein => in der normalen Amazon-Website auf das Buch gehen – Rechtsklick aufs Bild – „Grafikadresse kopieren“ das ist dann ein PermaLink zu dem Bild – im Blogger: Post bearbeiten: über Icon Bild einfügen: links auf Option „von einer URL“ in die URL Zeile: Strg + V (so könnte man übrigens auch Bilder von einer Website hinzufügen):

Text schreiben => siehe weiter unten unter Grundprinzipien!

Unten drunter
Datenschutz (von Peer Wandinger Solarsache geklaut) und Impressum



Schritt II + III:
Andocken der Landing Page an Webmaster Tolls und Google-Analytics
Ziel: ausreichende Statistiken +  Techniken bekommen


II. Verknüpfung mit  Webmaster Tools einbinden
Google – Google Analytics raussuchen – anmelden | Button: Website hinzufügen – total-vernetzt.blogspot.de- Inhaberscahft bestätigen (bie blogspot kommt man nicht auf eine HTML Datei, weil man nicht auf den Root-Server kommt) deshalb: Reiter „Alternative Methode“ Klick: HTML-Tag – meta Angabe: Strg + C -> dies in Headbereich des Blogs kopieren (Vorlge, HTML bearbeiten – unter <head> Leerzeile einfügen – Strg + V – Vorlage speichern – Zurück in webmaster –Tool: Bestätigen Button klicken – weiter (das Crawiling Rädchen rattert und ratter – ggf. auf Kto, und dort Sprache einstellen – auf Logo Webmaster Tools -> normaler Eintrag, => jetzt können Daten in den Crawler aufgenommen werden



III. Verknüpfung mit Google Analytics einbinden
Anmelden | Passwort | Tutorials kann man übergehen | auf Website verfassen Kto. Name „TestkontoSR“ – name Website: SRLandingpage – URL: Adresse des neuen Blogspots eingeben (Achtung: http nicht doppelt!) – Branche: z.B. Online Community – Zeitzone: Deutschland (MGZ +01:00 Berlin) – runter scrollen: alle Häkchen lassen! – Button „Tracking ID abrufen“, Button „Ich stimme zu“ | UA-Nummer: Auf Universal Analytics umstellen – wählen sie ein Konto auf Property – wegklicken – runter scrollen Tracking Code wenn dort steht ga create und ga send => alles gut ;)
UA-Nummer kopieren – zurück in den Blogger. Einstellungen – sonstiges (unten) runter: Google Analytics Strg + V – oben rechts: Button „Einstellungen speichern“

ð  Die Landing Page ist nun mit Webmaster Tools und Google Analytics verknüpft, bis das Tracking aktiv ist, dauert es ca. 48 Stunden

Tabs schließen,



3 Server-Dateien für eine SEO-Optimierung = SEO-Technik!!!

Wir sehen uns das Video an:
http://wenda-it-web.de/die-3-wichtigsten-serverdateien-im-seo/#axzz38HYA7J3h

 
.htaccess  =  bildhaft: Wegbeschreibung ins Restaurant
=> technisch: .thaccess  umschreibt Permalinks, schützt bestimmte Bereiche, umschreibt ob Domain mit oder ohne www verzeichnet ist => Definiert die www-Klärung, definiert Umleitungen etc.
Wann permanente Umleitung auf andere Arbeitsdatei, traffic-.relevante
Sie ist die einzige Datei, die man in Blogspot nicht anpacken kann, man darf es auch nicht!, weil sie ins root-Verzeichnis eingreifen muss – logisch: man darf das System nicht umleiten.

http_Reponse-Codes
301-Weiterleitung:  Rewrite R=301,L = permanente Umleitung => Trust-Verhältnis, PageRank … alles wird weiter gerechnet auf die neue Seite, auf die umgeleitet wird
R= 302 = kurzfristige Umleitung (Baustellen-Seiten etc.)


Abb.: blau unterlegt: http-Response-Code für www-Klärung => sie sagt aus, dass wenn jemand die www-Adresse der-experte-fuers-handwerk aufruft, automatisch auf die web Adresse (hier: wenda-it-web.de umgeleitet wird (neue Adresse = 301 = dauerhafte Umleitung)  RewriteCond … verweist auf RewriteRule …

RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^domain.de
RewriteRule (.*) http://www.domain.de/$1 [R=301,L]


robots.txt = bildhaft:Türsteher => dem Crawler wird ein Tisch zu gewiesen
=> technisch: sagt robots, was darf indexiert werden und was nicht. Google liest dann nur optimierte Seite aus. (Dies ist rein hinweisend und auf „Freundliche Webcrawler“ angewiesen. Garantiert also die Geheimhaltung nicht)


sitemap.xml = bildhaft: Speisekarte
=> Zugriff beschleunigen, sitemap.xml-Datei sagt aus, was auf der Seite zu finden ist, Crawler kennen dann die Seite schon, kennt jede einzelne URL, braucht nur die neuen Inhalte auslesen, weil Crawlern nur bestimmte Zeit auf website verbringen

=> Ziel: Aller 3 Dateien

·         Beschleunigung der Zugriffe und Auffindbarkeit für Webcrawler
·         Dienen dazu, die Seiten fehlerfrei auszulesen
·         Nur über die htaccess kann man eine www-Klärung vornehmen.



Ergänzend zu robots.txt:


Nach der Übereinkunft des Robots-Exclusion-Standard-Protokolls liest ein Webcrawler (Robot) beim Auffinden einer Webseite zuerst die Datei robots.txt (kleingeschrieben) im Stammverzeichnis („root“) einer Domain. In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf. Website-Betreiber haben so die Möglichkeit, ausgesuchte Bereiche ihrer Webpräsenz für (bestimmte) Suchmaschinen zu sperren. Das Protokoll ist rein hinweisend und ist auf die Mitarbeit des Webcrawlers angewiesen. Man spricht hier auch von „freundlichen“ Webcrawlern. Ein Ausgrenzen bestimmter Teile einer Webpräsenz durch das Protokoll garantiert keine Geheimhaltung


Robots-Datei:

Im Blogspot bauen wir die robots.txt-Datei ein:
Einstellung – Sucheinstellungen – robots.txt -> aktivieren, hier könnte man selber Seiten aussparen (wir schauen uns die Robots-Datei von Ralf an). Würde man z. B. nur die letzten beiden Zeilen einbauen:
User-agent: *
Disallow: /
Bedeutet:, dass / = Stammverzeichnis auf unserem Server, * = alle => alle Robots dürfen nicht in das Root-Verzeichnis schauen, Das nutzt man wenn eine Website noch im Baustellen-Modus ist.

Simple Editor-Datei in nur robots.txt  => in root-Verzeichnis unserer Website speichern.

User-agent: *
ð  Diese Verzeichnisse/Dateien sollen nicht durchsucht werden





Ralf schließt also für die Robots den Ordner wp-admin und wp-includes aus, das letzte ist ein Foto von einer Teilnehmerin, das Ralf zwar verwenden darf, was aber die Crawler nicht indexieren sollen /text/  zwei // zeigt, hierh geht es um Ordner

Klausur:  Befehle nicht wichtig, man sollte wissen, was die robots-txt Datei macht!

Sitemap.xml
Wir gehen auf den xml-sitemap Generator (ausgoogeln!) revisit after – bedeutet: komm zurück auf meine Seite, und komm (z.B.!) jede Stunde vorbei, dann sollte man aber auch (hier dann stündlich) etwas Neues anbieten können – die sitemap.xml Datei braucht der Crawler, hier nur URL # Titel -> man müsste für jede Seite, die man baut dieses Prozedere machen, CMS machen dies automatisch! Auch setzen die Admins solche Dateien ein – sollten sie zumindest -! RSS baut auf gleicher Technologie auf,
=> Simulieren einer regelmäßigen Akutalisierung einer Sitemap-Datei
Jetzt folgt nur ein kleiner Anriss – sorry, dies ist mir zu technisch und zu weit weg vom Online-Marketing
In Blogspot:– unten: auf abonnieren klicken - oben URL rauskopieren: feeds/post/ … kopieren -> in webmaster angeben …

- - - - - - - - - - -



Zurück zur LandingPage

Inspirationen holen bei …
·         v2.affenbuch.com/pages/ => Sehr gut!!! : )

Grundprinzipien beachten:
AIDA-Formel
Die 4 Lerntypen nach Briggs
emotional, rational, Schritt-für-Schritt, Konkrete Aufruf-Reagierer
Die 6 Schlüssel aus der Verkaufspsychologie  nach Dr. Cialdini => Inhalt entsprechend aufbereiten
·         Reziprozität  => etwas geben => Content liefern
·         Konsistenz => verbindlich, konsequent
·         Sympathie => Gemeinschaft schaffen, Komplimente machen
·         Autorität => ggf. mit eigenen Erfahrungen, Titeln,…
·         Social-Proof => Testimonials, Zahlen, wieviele damit schon Erfolg hatten, Case Studies
·         Künstliche Verknappung => Schnäppchen, zeitlich limitiert, Rabatte …
ZG-orientierte Ausrichtung (Inhalt + Aufmachung)
... weiter AIDA
Desire   => Verlangen, Besitzwunsch wecken
Action: => Bestell-Button oder ähnliches





Keine Kommentare:

Kommentar veröffentlichen