Das Google Keyword Tool ist tot – es lebe der Keyword Planer!
Unentbehrliche Hilfsmittel von Google – nicht nur für SEM-Kampagnen, sondern auch für Inhouse SEO sehr nützlich
Tags: Keyword-Planer, Keyword Tool, Google AdWords, Keyword-Recherche, SEO Tools
Verfasser: Michael Zachrau             01.11.2012 (zuletzt aktualisiert am 10.06.2016)
Wer die Suchnachfrage für den Suchbegriff keyword tool suchte, wurde mit einer Fülle von hochrelevanten Informationen v.a. auch für SEO versorgt. Das ist leider seit Juli 2013 Geschichte. Das neue Tool heißt Keyword-Planer und kann viel weniger.

Vom kostenlosen Google Keyword Tool über Einsteiger-Tools wie onpage.org bis hin zu SEO Suiten wie Searchmetrics
Das Keyword Tool von Googleist war ein unentbehrliches Hilfsmittel bei der Keyword Recherche, nicht nur für AdWords-Kunden, sondern für alle SEO-Experten. Daher kennen und nutzen SEO-Agenturen und SEOs selbstverständlich umfänglich das von Google kostenlos bereitgestellte AdWords Keyword Tool. Das ist jetzt seit Juni 2013 Geschichte. Google hat das Tool vereinfacht und nennt es nun Keyword Planer. Das bisherige Keyword-Tool war auch anonym verfügbar, heute unterstützt Google mit dem Keyword Planer nur noch eingeloggte User.

 

 

Die Besonderheiten des Google Keyword Tools lagen in der Bereitstellung der monatlichen Suchnachfrage (Suchvolumen), der Nennung der CPCs, der Anzahl der Suchergebnisse (Mitbewerberdichte) und der Generierung von mehr oder weniger „verwandten“ Suchbegriffen.

Damit wurde die Suchmaschinenoptimierung in dem elementaren „Keyword Recherche“-Bereich von Google selbst entscheidend unterstützt.

 

Neben den Webmaster Tools und Google Analytics war das Google Keyword Tool das dritte wichtige Werkzeug bei der Suchmaschinenoptimierung. Das hat Google offensichtlich nicht gefallen und darum wurde auch dieses Werkzeug abgeschaltet und ersetzt durch den Keyword Planer.
Das neue Keyword Tool schlägt keine interessanten Keywords vor

Wer selbst eine Google AdWords-Kampagne plant (unser SEM-Tutorial) oder eine eigene bestehende Kampagne optimieren will, kennt sicherlich das Google AdWords Keyword Tool.

Ich habe festgestellt, dass dieses Tool den allerwenigsten Kunden bekannt ist und erst recht nicht, wie wertvoll die Informationen, die sich daraus für die SEM-Kampagen aber auch für SEO gewinnen lassen.

 

Aber eines nach dem anderen. Erst einmal für alle Neueinsteiger die Information, wo sie dieses überaus wertvolle und nützliche und sogar kostenlose Tool finden.
Andere Keyword- und SEO Tools (nicht von Google)
Kein Google-Konto macht wenig Sinn
Da wir hier nicht über irgendeine Suchmaschine und eine Online-Marketing-Firma reden, sondern über DIE Suchmaschine, die mit Online Marketing mittlerweile mehr Geld verdient, als alle Print-Werbung zusammengenommen (in USA, in Europa kommt es mit einer Zeitverzögerung von ca. 1-2 Jahren), mit einem Monopol-artigen Marktanteil von 95% (in Deutschland 09/2013) können wir uns die Google-Account-Abstinenz der Datenschutz-Bedenkenträger nicht leisten (wir werden eh von der NSA belauscht, oder kennen Sie echte deutsche oder wenigstens europäische Suchmaschine? ;-)) und haben ein Konto bei Google, was jedermann Zugang zu wertvollsten Informationen und Dienstleistungen verschafft.

 

Diesen Zugang vorausgesetzt, können wir ohne Eingabe von lästigen Captchas den Keyword Planer in Google AdWords nutzen. Also Google AdWords in Google.de eingeben, klicken, anmelden und unter Tools und Analysen (s. Bild) auf Keyword Planer klicken.
Wieviele suchen und wer bietet mehr?
Nun können einfach ein Wort oder eine Wortgruppe eingegeben werden, zusätzlich am besten noch die Website, für die gesucht wird und dann liefert das Google Keyword Tool für die Suchbegriffe eine beachtliche Anzahl entscheidungs-vorbereitender, qualifizierender Informationen:

Wettbewerbsintensität
monatliche globale Suchanfragen
monatliche lokale Suchanfragen
Anzeigenanteil
Google Such-Werbenetzwerk
Anteil bei Suchanfragen
ungefährer CPC (Cost per Click)
lokale Suchtrends
von Webseite extrahiert
Für die meisten Nutzer ist das schon so viel an Daten, dass sie die Übersicht verlieren oder sich verzetteln, daher empfehle ich Einsteigern sich auf 1, 3 und 7 zu konzentrieren.
Weitgehende Übereinstimmung ist häufig mit hohen Streuverlusten verbunden
Nebenbei bemerkt ist die Kontext-Hilfe vom Google Keyword Planer sensationell gut, also bei eventuellen Fragen nicht gleich verzagen, sondern dran bleiben.

 

Bisher sollte auf der linken Seite vom Google Keyword Tool unter Übereinstimmungstypen besser [Exakt] eingestellt werden, denn die Default-Einstellung weitgehend (broad match) lieferten in der Regel zu optimistische Prognosen über die Suchnachfrage. Das war sicher von Google gewollt, denn schliesslich hat Google ein massives wirtschaftliches Interesse an höheren Umsätzen durch mehr Klicks. Ob diese Klicks, am Ende aber auch von der Zielgruppe stammen und ordentlich Konversionen generieren, dafür ist jeder Anzeigenkunde selbst verantwortlich und sollte daher nicht zu großzügig mit Werbegeldern um sich werfen und durch broad match Einstellungen Streuverluste verursachen.

Mittlerweile sind die Daten nur für die genaue Suche verfügbar – Google hat also gelernt, dass User die optimistischen Prognosen nicht schätzen.
Die Keyword-Daten vom Google Keyword Tool für eine Entscheidung vorbereiten
In den erweiterten Optionen und Filter – Einstellungen lassen sich die Keyword-Daten, Google nennt diese Keyword-Ideen vor allem für Länder, Sprachen und Endgeräte einschränken, bzw. für bestimmte Suchvolumen-Größenordnungen filtern.

 

Sind die Keyword-Ideen (neu ist direkt daneben im Beta-Stadium eine Option Anzeigengruppen-Ideen zur Strukturierung der Anzeigen, auf die wir hier jetzt noch nicht eingehen wollen) ausgegeben, können diese Daten nach Relevanz oder nach den Spalten-Überschriften sortiert und markiert werden und anschliessend als CSV-Excel-Datei (oder weitere Formate, auch XML) herunter geladen werden zur weiteren Bearbeitung.

 

Diese Keywords können nun weiter verarbeitet werden und mit den gelieferten Informationen kann nun entschieden werden, welche Keywords zukünftig als AdWords geschaltet werden, bzw. auf welche Keywords zukünftig bestimmte Webseiten optimiert werden. Wie man diese Keywords direkt für SEO Content nutzt, habe ich in meinem Blog-Post „Wie werden Keywords in Webseiten integriert“ genau beschrieben.

 

Dazu drei Daumenregeln für angehende Inhouse SEO:

 

1. Optimieren Sie nicht auf Keywords mit exakter Suchnachfrage <100, denn auf dem ersten Platz solllten sie mindestens etwa 40 Besucher im Monat erhalten, darunter ist die Optimierung nicht sinnvoll.

 

2. Suchen Sie auch Begriffe, unter denen Ihre Website schon Rankings unter den ersten 20 Suchergebnissen hat, d.h. ergänzen Sie die Liste (Keyword-Ideen) um die Rankings Ihrer sichtbaren Keywords.

 

3. Verschwenden Sie Ihre Optimierungsbemühungen nicht an CPC`s < 0,20 €. Es ist sehr gut möglich, dass mit diesen Begriffen nur unterdurchschnittliche Konversionsraten erreicht werden. Im B2B sollte 1,2 € sogar das Minimum sein, darunter gibt es fast keine konversionsstarken Keywords.

 

Für international ausgerichtete Kunden, und darunter sind in einem Export-Weltmeisterland wie Deutschland bekanntlich neben großen Konzernen auch sehr viele Mittelständische Unternehmen, die berühmten „Hidden Champions“, gibt es noch den Google Global Market Finder. Dieser übersetzt Keywords und findet die besten Keywords global.
Google Global Market Finder
Internationale Keywords über den Google Global Market Finder

Der Global Market Finder ermöglicht es Ihnen, weltweit die Relevanz von für Sie wichtigen Keywords festzustellen und damit neue internationale Märkte zu erschließen. Nach Eingabe Ihres Suchbegriffes in deutscher Sprache und Auswahl einer Region übersetzt der Google Market Finder in insgesamt 56 mögliche Sprachen und liefert exakte Informationen über die stärkste Nachfrage nach diesem Keyword. Der Global Market Finder lässt sich auch mit Google AdWords kombinieren und kann auf diese Weise zusätzlich einen Gebotsvorschlag sowie eine Analyse der Wettbewerbssituation im Ausland liefern, was eine Rentabilitätsberechnung beim Erschließen neuer Märkte erleichtert.

Weitere SEO Tools
Google-Optimierung qualifiziert für Suchmaschinen-Traffic
Insgesamt erhält Google & Co. monatlich 6,5 Milliarden Suchanfragen von den rund 51,4 Millionen Internet-Nutzern in Deutschland. Durchschnittlich startet jeder Nutzer 4 Suchanfragen täglich.

 

Dieses gewaltige Nachfrage-Volumen erreicht zu 96% die 20.000 besten Websites, allein 57% die TOP 1.000, während etwa 780.000 (ca. 11% der Summe aller  3,1 mio umsatzsteuerpflichtigen kleinen und mittelständischen Unternehmen (KMU) und 4,2 mio. Selbständigen) weitere kommerzielle Websites und über 1,6 Mio private Homepages sich ca. 4% der Suchanfragen teilen.

Für kommerzielle Website-Betreiber gilt daher die mittlere Gruppe als Minimal-Ziel.

 

Dies gelingt nur jenen, die laufend aktiv ihre Google-Positionen durch Suchmaschinenoptimierung verbessern. Dass dies noch nicht einmal für viele große Unternehmen gilt, konnten wir in einerUntersuchung von 400 Websites deutscher Groß-Unternehmen zeigen.

 

Durch welche Keyword Marketing Maßnahmen wird das Besucher-Potenzial professionell ausgeschöpft?

Erfahren Sie, wie methodische und systematische SEO Beratung hilft, Ihre Ziele zu erreichen.

 

Alphabet

Alphabet ist der Name, den der Google-Konzern 2015 für seine Holding ausgewählt hat.

Alphabet im Setzkasten
Der Setzkasten enthält die Bestandteile unserer Sprache: Buchstaben, Zahlen und Sonderzeichen, daraus lassen sich auch feine Formeln, Codes und Algorithmen basteln

Darunter sind seine beiden Suchmaschinen Google und YouTube, das Cloud Computing-Geschäft, das Unternehmen im Heimsektor (z.B. Nest) und Android angesiedelt.

Google X  und einige weitere zukunftsträchtige Aktivitäten, die aber noch bei weitem nicht die Größe des Kerngeschäfts von Google erreichen, gehören ebenfalls zur Holding.

 

Amazon

Amazon ist nicht nur die Online-Handelsplattform schlechthin, es handelt sich um einen der 4 großen amerikanischen Plattform-Konzerne (The Four Horsemen). Die 3 anderen Plattform-Konzerne sind Facebook, alphabet und Apple.

Es ist ein Social-Commerce-Versandhaus, in dem Händler und Privatpersonen über den integrierten Marketplace beispielsweise gebrauchte Bücher verkaufen können.

Der Name lehnt sich an den stark verzweigten südamerikanischen Fluss Amazonas an, sinnbildlich soll damit die umfassende Partnerschaft vieler Beteiligter auf dem Online-Portal verdeutlicht werden.

Amazonas Flusslandschaft mit Reiher
Weitverzweigte Flusslandschaft des größten Flusses der Welt

Entstehung von Amazon

Der 1964 geborene Amerikaner Informatiker Jeff Bezos gründete Amazon im Jahre 1994 in den USA und ging mit der Plattform 1995 online.

In Deutschland kaufte Jeff Bezos 1998 die Telebook Inc. auf, die über ihre Tochter ABC Bücherdienst GmbH als nahezu einziges und größtes Unternehmen Bücher über das Netz vertrieb.

Elektronik und Bücher waren in den 1990er Jahren die Schwerpunkte von Amazon, erst später ließ Jeff Bezos das Sortiment auf die heutige Vielfalt ausweiten.

 

Das Shopping-Portal schuf in Deutschland in der Folgezeit mehrere Tausend Arbeitsplätze in den deutschen Distributionszentren, über die kommerzielle Händler ihre Produkte vertreiben.

Vor allem im Bereich der Elektronik, bei Haushaltsgeräten und Spielwaren sind die riesigen Lagerflächen in Bad Hersfeld, Leipzig, Werne, Augsburg und Rheinberg essenziell.

Aber auch der Marketplace auf Amazon entwickelt sich in Deutschland hervorragend und stellt in bestimmten Bereichen wie CDs, DVDs und Büchern eine Alternative beispielsweise zu eBay und ähnlichen Plattformen dar.

Die Nutzung von Alexa

Im Jahr 1999 kaufte Amazon den Internetdienst Alexa, der für das Shopping-Portal insgesamt und auch seinen Marketplace sehr bedeutsam wurde.

Denn mit Alexa und dem gleichnamigen Rank können Besucherzahlen ausgewertet werden, was für Werbetreibende äußerst interessant und für Amazon ein Baustein für den großen Erfolg ist.

Tatsächlich sind Produkte, nach denen gegoogelt wird, häufig zuerst auf Amazon zu finden, im Bereich Elektronik ist das zum Beispiel der Fall.

Das Shopping-Portal hat dadurch hinsichtlich der Suchmaschinenoptimierung eine absolute Ausnahmestellung erreicht.

AWS und Cloud Computing

Der zugleich profitabelste, wachstumsstärkste und aussichtsreichste Unternehmensbereich von Amazon ist Amazon Web Services (AWS).

Das Unternehmen ist ein US-amerikanischer Cloud-Computing-Anbieter, der 2006 als Tochtergesellschaft des Online Versandhändlers Amazon.com gegründet wurde.

Unternehmenszweck war es von Anfang an, Entwicklern eine hochperformante und kostengünstige IT-Infrastruktur auf Abruf (on demand) anbieten zu können. Diese werden virtuell über TCP/IP in der Cloud und frei skalierbar angeboten.

Für Amazon war dieser Schritt eine logische Konsequenz, da man intern zu diesem Zeitpunkt schon auf kleine schnell-bewegliche Teams umgeschwenkt hatte, die neue Funktionalitäten auf Basis der bestehenden Cloud-Infrastruktur implementierten.

Die Skalierungseffekte der Cloud-Dienste wurden damit zur Basis des Produktes Cloud Computing selbst, das man ab 2006 nicht mehr nur intern, sondern auch extern anbot.

Nach Amazon entdeckten auch IBM, Microsoft, Google und andere den riesigen Bedarf an Cloud-basierten IT-Services.

Aktuelle Trends bei AWS

Amazon Web Services werden teilweise kostenlos angeboten.

Es wurde ein Programm namens Free Usage Tier gestartet, das Rechenleistung (750 Stunden) und andere beliebte AWS-Dienste in begrenztem Ausmaß beinhaltet.

Nach Ablauf des ersten Jahres müssen Kunden auf einen kommerziellen Tarif wechseln und die üblichen Gebühren entrichten.

Zahlreiche schnellwachsende Startups und Unternehmen u.a. Uber, airbnb, Dropbox, Netflix, WordPress oder Reddit sind Kunden von AWS.

Seit 2013 ist AWS der marktführende globale Anbieter von Cloud Computing.

Amazon 2018

Amazon ist auf dem 4. Platz der wertvollsten Unternehmen der Welt und durch seine Beteiligungen, Patente und weitere Assets immer noch stark wachsend.

Amazon beschäftigt weltweit (2017) ca. 542.000 Mitarbeiter, vor allem in den grossen Logistik- und Distributionszentren.

Backlink

Ein Rückverweis (englisch: backlink bzw. back-link) bezeichnet einen Link von einer Webseite auf meine Webseite.

Im Unterschied zu einem Inlink (Links innerhalb einer Domain/Website) und einem Outlink (externer Link auf andere Domain/Website) sind das also die Verweise, die von anderen Websites auf die eigene Website verlinken.

Brooklyn Bridge Netzwerk in New York City
Brücken verbinden Menschen und ganze Kontinente, (Hyper-)Links verbinden das Internet und damit das gesamte Universum.

Ein Link (auch Hyperlink) entsteht dadurch, dass ein Inhaltselement wie ein Text, Bild oder Video mit einem speziellen HTML-Code auf einen anderes Dokument, wie z.B. eine interne oder externe Webseite verweist.

<a href=“https://www.michael-zachrau.de/seo-seminar/“>Suchmaschinenoptimierung Seminar</a>

Der Hyperlink ist die Grundlage des Webs

Das href-Attribut macht den Link zu einem Hyperlink. Verbindet damit quasi distanzlos das Web zur totalen Matrix. Ich muss nun nicht mehr wissen, wo ein Buch, ein Dokument, ein Bild materiell gespeichert ist, sondern kann digital auf ein Klick zugreifen.

The world at our fingertips.

Und damit hätten wir einmal vor uns DIE Grundlage, was das WWW sooo einzigartig und damit unfassbar attraktiv macht:

Alles ist mit allem magisch verbunden! 🕸

Die Dokumente bzw. Seiten (eine Seite = Page ➡️URL im Web ist nichts anderes als ein „Dokument“) aller Websites/Server können durch Hyperlinks miteinander verbunden werden und durch einen einfachen Klick aufgerufen werden.

Immer dann, wenn z.B. in einem Text ein Verweis benötigt wird auf einen anderen weiterführenden Text, eine Fundstelle  oder ausführliche Erläuterungen in einem Lexikon wird direkt – durch Klick auf den Verweis (Link) – die andere Seite aufgerufen.

Links von externen Webseiten, also anderen Domains, werden von uns als Backlinks bezeichnet.

Backlink Bedeutung für das Ranking

In vielen Suchmaschinen wird die Anzahl der Rückverweise 🔙🔙🔙🔙… – ∞ als Indiz für die Linkpopularität oder Wichtigkeit einer Website verwendet. Und diese gelten als (immer noch!) wichtige Faktoren für hervorragende Rankings.

Googles mittlerweile nicht mehr aktualisierter PageRank-Algorithmus war ein Beispiel hierfür.

Auf die Backlinks hat der Betreiber einer Website in der Regel keinen direkten Einfluss.

Zur Generierung zusätzlicher Backlinks bzw. zur Beeinflussung des Linktextes und der Linkpopularität dienen unter anderem Linkbuilding, Referrer-Spam, Textlinktausch und Artikelverzeichnisse.

Das Aufspüren der Backlinks erfolgt mit Hilfe von Suchmaschinen, durch Auslesen der Referrer bei der Logdateianalyse oder durch spezielle SEO-Tools.

So kann man bei vielen Suchmaschinen eine Suchanfrage der Form „link:<URL>“ verwenden, um die Rückverweise auf die Webseite mit der angegebenen URL zu bestimmen.

Backlinks als Rankingfaktor und als Gelddruckmaschine

In den Jahren 2006-2016 hat die Bedeutung der Backlinks gegenüber anderen Rankingfaktoren deutlich abgenommen. (sagt u.a. Searchmetrics) Backlinks galten in der SEO-Szene etwa bis 2012  als einer der stärksten Faktoren des Algorithmus, nach dem Google die Reihenfolge (das Ranking) der organischen Suchergebnisse berechnet.

Mit „künstlichen“ Backlinks konnte ein Webseitenbetreiber auch thematisch vollkommen irrelevante Websites „pushen“, z.B. um Traffic zu generieren für Google Adsense. Wenn dann noch Klickbetrüger für die notwendigen Klicks (Pay per Click = PPC) auf ihren Websites gesorgt haben, waren Backlinks von Pagerank-starken Webseiten Gold wert.

Die Suchmaschinen-Betreiber haben irgendwann erkannt, dass die meisten Backlinks „künstlich“ bzw. unnatürlich entstanden waren und ausschließlich zum Ziel hatten, Webseiten in die vorderen Suchergebnisse zu manipulieren.

Der Kampf gegen das Linkbuilding

Ich habe Linkbuilding immer mit unerlaubtem Doping verglichen. Eine Zeitlang funktioniert beides – man darf sich nur nicht erwischen lassen.

Die Spam-Bekämpfer von Google können Seiten mit einer unnatürlichen Linkstruktur leicht identifizieren.

Die entsprechenden Algorithmus-Updates wie Panda und Penguin haben die Websites vieler Backlink-Spammer abgewertet.

Das sind z.B. Muster wie : viele Links aus Russland, Afrika etc., zu viele Links, zu spezifisch, zu schnell gewachsen, zu viele von einer einzigen Quelle/Domain, viele von bekannten Spam-Linkquellen, gekaufte Links etc.).

Die Backlinks von Social Media Plattformen werden ebenfalls von den Suchmaschinen bewertet, gerade diese liefern relevanten Websites mittlerweile einen großen des Traffics.

Jeder 5. in Deutschland nutzt einmal täglich mittlerweile Facebook, mehr tägliche Nutzer hat selbst Google nicht. (Quelle: Online-Nutzung in Deutschland aus der ARD/ZDF-Online-Studie 9/2017)

Im Zeitalter von Social Media kann auch in den Augen von Google eine Website, die kaum Social Media Backlinks z.B. von Facebook, Twitter oder Instagram generiert nicht relevant sein.
Sie wird daher in der Bewertung gegenüber Konkurrenzseiten, die diesen Malus nicht aufweisen, schlechter abschneiden.

Das hat sich unter Black Hat SEOs 😎natürlich herumgesprochen und erneut dazu geführt, dass einige es ein wenig zu gut gemeint haben, in dem sie diese Social Media Backlinks künstlich durch Bots bzw. manuell durch 400 €-Kräfte gesetzt haben.
Es hat nicht allzu lange gedauert und Google hat auch dieses (unnatürliche, manipulative) Treiben erkannt und entsprechend im Algorithmus für dieses Muster eine Penalty verankert.

Wenn die Backlink-Struktur einer Website diese Pattern aufweist, wird sie stark abgestuft bzw. wird eine neue Seite erst gar nicht unter die ersten 50 in den SERPs bei häufig eingegebenen Suchanfragen aufsteigen.

Heute, 2018, gehen wir davon aus, dass die lernenden KIs (Machine Learning bei Google) der Suchmaschinen unnatürliche Links sehr schnell erkennen.
Wir wären daher sehr vorsichtig mit aggressiven Linkaufbau-Strategien.

Unliebsame Backlinks können Webmaster mit dem Disavow-Tool entfernen bzw. entwerten.

 

 

Bildbearbeitung

Lightroom im Praxiseinsatz
Lightroom ist für die digitale Bildbearbeitung, was die Dunkelkammer für die analoge Photographie war. Erst hier werden die RAW-Dateien entwickelt“.

Die (digitale) Bildbearbeitung ist heute aus der Welt des Marketings nicht mehr wegzudenken. Ausnahmslos jedes Bild in der Werbung ist nachbearbeitet – manchmal etwas subtiler und häufig auch offensichtlicher.

In der digitalen Bildwelt ist die Bildbearbeitung in etwa vergleichbar mit der Entwicklung von analogen Fotos.

Genutzt werden dazu ausschließlich professionelle Anwendungen wie die Creative Cloud von Adobe mit dem Kernprodukt Photoshop.

Natürlich gibt es jedoch auch eine Unzahl von kostenlosen Programmen und Diensten, die das Bearbeiten von Bildern erlauben – dabei reicht jedoch keines dieser Tools an die Funktions-Mächtigkeit der Adobe Creative Cloud heran.
Voraussetzungen für eine erfolgreiche Bildbearbeitung

Digitale Hilfsmittel spielen dabei inzwischen eine große Rolle. Gerade das eingangs erwähnte Photoshop von Adobe ist dabei ein so populäres Tool, dass das englische Prädikat „to photoshop“ inzwischen als Synonym für die Bildbearbeitung genutzt wird.

In der professionellen Bildbearbeitung sind einige Merkmale wichtig, um möglichst gute Resultate erzielen zu können. Darunter fällt einerseits eine möglichst hohe Auflösung des Bildes, das darüber hinaus in einem unkomprimierten Format vorliegen muss, sozusagen noch nicht „entwickelt“.

Ist das nicht der Fall, machen Artefakte die Bearbeitung des Bildes unmöglich oder sehr schwer. Aus diesem Grund speichern gute Kameras alle Bilder auch in einem RAW-Format, da dies die problemlose Bearbeitung der Bilder erlaubt.

Für die erfolgreiche Bildbearbeitung sind umfangreiche Kenntnisse in Visueller Kommunikation erforderlich.

Bilder sollen heute Geschichten erzählen (storytelling) und sind meist für die Anziehung (Attraction) im AIDA-Prozess unentbehrlich.

Damit ein Bild das leisten kann, gilt es, Komposition, Farbe, Licht, Kontrast, Tiefenschärfe, Perspektive, Design auf die Bildaussage und für die Zielgruppe abzustimmen.

Die Bedeutung von Bildbearbeitung in der Werbung

Die Bildbearbeitung wird genutzt, um möglichst ästhetische Resultate hervorzurufen.

Unschärfe, Über- und Unterbelichtung, Kontrastschwäche, Bildrauschen, Rote-Augen-Effekt und stürzende Linien gehören zu den Fehlern, die in der Bildbearbeitung (Post Production) korrigiert werden können.

Auf den Titelbildern der Magazine sind die Gesichter der Prominenten makellos. Pickel und andere „Fehler“ werden wegretuschiert.

Das ist längst nicht nur beschränkt auf die Fotografie von Menschen, sondern auch von Produkten, die möglichst ohne Schwachstellen abgebildet werden sollen – in der Werbung für Autos etwa werden schon seit Jahren kaum mehr echte Autos fotografiert, sondern meistens am Computer erstellt und dann sehr umfangreich bearbeitet, um ein Resultat zu erzielen, das so in der Realität niemals möglich wäre.

Produktbilder in der Werbung unterliegen strengsten Qualitätsanforderungen, um z.B. bei Lebensmitteln Frische, Plastizität und Farbtreue hervorzuheben.

Denn Bier soll zum Trinken animieren, Flecken auf Obst sind unerwünscht und trotz eines 4-stündigen Shootings müssen Lebensmittel auf Bildern immer knack-frisch aussehen.

Buyer Persona

Der Begriff Buyer Persona hat im Online Marketing ein wenig die alte Zielgruppe verdrängt.

Das Konzept der Buyer Persona setzt auf die Hypothese auf, dass die (werbliche) Kommunikation heute nicht mehr mit den veralteten Methoden des Massenmarktes erfolgreich ist, sondern eine zielgerichtete Kommunikation mit genauer Kenntnis der Präferenzen und ca. 200 soziodemographischen Datenpunkten wie Alter, Geschlecht, Bildung, Beruf, Einkommen, Gewicht, Sprache etc.  die Kunden wesentlich besser erreicht.

Vor allem die Kenntnis der „Pain“ und Gain“-Points der Buyer Persona erlauben nutzengerechte Content-Entwicklung, die den suchenden Kunden in seiner Erwartungshaltung bestätigen und seine, wenn auch nur eingebildeten Bedürfnisse befriedigen soll.

Der Aufstieg des Content Marketing hat diesen Ansatz beflügelt, um eine veritable Content Marketing Strategie zu erarbeiten und als Orientierung für die Content Entwicklung hat sich die Buyer Persona als sehr nützlich erwiesen.

Insbesondere für die Suchmaschinenoptimierung ist die Buyer Persona in den letzten Jahren immer zentraler geworden. Je besser ich meine Buyer Persona kenne, desto zielgerichteter kann ich meine Keyword-Strategie darauf ausrichten und ihre Suchintention mit meinem Content erfüllen.

Letzteres ist eine der wesentlichen Voraussetzungen, um für die eigenen Webseiten bei Google Relevanz für bestimmte Suchanfragen zu erzeugen und damit eine hohe Sichtbarkeit in den Suchergebnissen zu ermöglichen.

Im Internet existieren brauchbare Anleitungen, um eine  Buyer Persona für sein Unternehmen oder für bestimmte Produkt- und Servicebereiche aufzubauen.

Diese Methoden werden mittlerweile auch sehr stark von einigen Medien angewendet und dadurch besteht die Gefahr, dass Menschen nur noch Informationen erhalten, die sie bestätigen. (Gefahr der Blase) Dadurch können bestehende Vorurteile verfestigt und der demokratische Dialog erschwert werden. Vor allem Populisten (beispielhaft D. Trump oder Boris Johnson) nutzen diesen Effekt stark aus.

Content

Wörtlich bedeutet Content Inhalt.

In der Fachsprache ist damit ein immaterieller Inhalt gemeint , also digitale Inhalte wie Bilder, Texte, Audio-Dateien oder zunehmend Video-Dateien.

Man kann also sagen: Der Content ist der präsentierte Grundstoff aus Besuchersicht, aus dem sich eine Website zusammensetzt.

Aus Sicht von Suchmaschinen wie Google ist Content und dessen Aufbereitung- und Präsentationsform, dessen Aktualität, Vollständigkeit, Einzigartigkeit und Granularität, die Verlinkung der Content-Seite, sowie die Besucherrezeption in Form von Interaktionsraten (Verweildauer, Absprungrate, Klick etc.) relevant für das Ranking von Webseiten. Es gilt, im Rahmen von SEO doppelten Content weitgehend zu vermeiden.

Der Content auf Webseiten wird von Suchmaschinen-Bots wie dem Googlebot regelmäßig analysiert und nach einem nicht veröffentlichtem Algorithmus unter Hinzunahme weiterer Messwerte und Kriterien ausgewertet und führt zur Ausgabe von Suchergebnissen nach einer Bewertung von Websites in Bezug auf einzelne Keywords.

Seit etwa 2012 wurde Content immer erfolgskritischer und viele SEOs haben daher angefangen, sich für Content Marketing zu interessieren.

EN:
In the technical language an immaterial content is meant, i.e. digital content such as images, texts or audio files. One can therefore say the content is the material, a site is consisting of.

FR:
Littéralement, le Content signifies contenu. Dans le langage technique, ca veut dire qu’ un contenu immatériel, comporte des images, des textes ou des fichiers audio.  On peut donc dire que le contenu est le matériau de la composition du site.

CSS

Trennung von Seiteninhalt und Formatierung

CSS (Cascading Style Sheets) wurde entwickelt, damit HTML-Codes nicht zu umfangreich und unübersichtlich werden.

Als Ergänzung zu HTML macht diese Formatierungssprache eine Trennung von Form und Inhalt bei der Gestaltung von HTML-Dokumenten möglich.

Neben zahlreichen anderen Technologien, gehört CSS zu den Webstandards und ist von dem Internet-Gremium W3C (World Wide Web Consortium) normiert.

Anspruchsvollere Layouts mithilfe von Cascading Style Sheets

Stylesheets bringen hinsichtlich der Erstellung von Websites zahlreiche Vorteile. Im Gegensatz zu reinem HTML, ermöglichen sie weitaus mehr Gestaltungsmöglichkeiten.

In einer externen Datei werden Schriften, Hintergrundfarben, Bilder usw. definiert. Das Layout lässt sich anschließend einfach auf die gewünschten HTML-Seiten anwenden.

Soll das Layout geändert werden, so ist der Aufwand viel kleiner, denn nur die Formatvorlage in der externen Datei muss bearbeitet werden und nicht jede Seite einzeln – ein entscheidender Vorteil bei großen Webprojekten, bei denen das Corporate Design gewahrt werden muss.

Andererseits können inhaltliche Änderung ebenfalls schneller realisiert werden, da die aufgrund der Trennung schlankeren Quellcodes der HTML-Seiten leichter zu bearbeiten sind.

CSS macht Websites suchmaschinenfreundlich

Für die inhaltliche und optische Gestaltung ist diese Trennung zwar vorteilhaft, häufig ist jedoch der Einsatz von CSS nicht mehr angemessen für das Web-Projekt und eine Website lädt dadurch langsamer. Wenn eine Website immer mehr wächst und neue Funktionen bereit gestellt werden, kommen typischerweise immer neue Selektoren von CSS der PlugIns dazu, die den Code enorm aufblähen können.

Dies kann erheblichen Einfluss auf die Nutzererfahrung haben und daher ist ein schlankes CSS auch indirekt ein Ziel einer professionellen Suchmaschinenoptimierung.

Ungenutzte bzw. obsolete Selektoren zu finden, d.h. das CSS aufzuräumen, ist daher häufig der Weg zu besseren Ladezeiten.

Ein weiterer großer Vorteil von CSS ist, dass es Ihre Website SEO-freundlich macht. Der Grund dafür ist einfach. Die Suchmaschinen-Bots haben keine Zeit. Sie durchlaufen nicht die Bündel von HTML-Codes, um zu den indizierten Codes zu gelangen. Schriftarten-Tags und -Tabellen machen den HTML-Code sehr umständlich. Mit CSS ist vieles möglich.

Dead Link

Als Dead Link 🚧wird, wie der Name unschwer erahnen lässt, ein Hyperlink bezeichnet, der auf eine Webseite oder einen Abschnitt einer Webseite verweist, welche(r) für den Benutzer nicht mehr erreichbar ist. Gebräuchlich ist auch der Begriff Broken Link‘.

Die Gründe dafür sind vielfältig, die Auswirkungen mitunter im Bereich des Marketings drastisch, weshalb Dead Links unbedingt vermieden werden sollten.

Was ist ein Dead Link?

Ein Dead Link darf nicht verwechselt werden mit Anfragen an den Server, welche nicht beantwortet werden.

Falls der Server aufgrund eines technischen Defekts nicht antwortet, bedeutet dies, dass der Verweis theoretisch noch funktioniert – nur praktisch hindert der Server den Nutzer daran, diesen Link zu erreichen.

Sobald der Server wieder korrekt funktioniert, kann jedoch auch der Link wieder aufgerufen werden.

Es handelt sich dabei also nicht um einen Dead Link, sondern nur um eine vorübergehende Störung.

Die bekannteste Variante eines echten Dead Links ist der 404-Error, welcher immer dann auftritt, wenn bestimmte Bereiche einer Webseite absichtlich oder unabsichtlich entfernt wurden.

Wenn ein Hyperlink angeklickt wird, der auf diesen Bereich verweist, tritt der Fehler 404 auf und Besucher der Seite können die Inhalte, die auf dieser Webseite platziert wurden, nicht mehr abrufen.

Weiterhin gibt es zahlreiche andere Gründe für einen Dead Link, wie etwa eine veränderte URL-Struktur, geändert DNS-Daten oder ein fehlerhaftes Modell für das Generieren von dynamischen URLs.

Messbare Folgen eines Dead Links

Die Auswirkungen von Dead Links sind teilweise deutlich spürbar. Auf professionellen Webseiten beispielsweise hinterlassen sie einen unseriösen und wenig Vertrauen erweckenden Eindruck.

Große Unternehmen können es sich nicht leisten, Dead Links auf ihrer Website zu beherbergen.

Aus diesem Grund gibt es inzwischen effektive Methoden und Tools, um Besucher bei einem eventuellen 404-Fehler direkt auf die Startseite oder andere relevante Bereiche der Webseite umzuleiten.

Damit ist zwar der Fehler nicht beseitigt, allerdings fällt er dann kaum noch auf.

Auch die Verwendung intelligenter Content Management Systeme oder spezieller Plug-Ins zur Ermittlung von Broken Links helfen dabei, diese zu vermeiden, da Verweise auf andere Webseiten durch diese Systeme automatisch auf dem neuesten Stand gehalten werden.