AdWords Image Extensions – Bilder sagen mehr als Worte

Dienstag, 17. Dezember 2013 | Von: | Kategorie: Google AdWords | 2 Kommentare

Bilder nehmen eine immer wichtigere Rolle in der bezahlten Suche ein. Dieses Jahr ist Google AdWords im englischen Sprachraum mit zwei neuen Anzeigenformaten im Beta-Test an den Start gegangen. Wir berichten in diesem Blog schwerpunktmässig über die Anzeigenerweiterung “Image Extension”, die wir für unseren Kunden Schweiz Tourismus testen konnten. Über die “Banner Anzeigen” in der Google Suche sind noch nicht so viele Informationen verfügbar, daher gehen wir nur kurz auf dieses Format ein.

Bei Google AdWords sind diverse Anzeigenerweiterungen möglich. Diese sollen nicht nur zu mehr Klicks führen, sondern neuerdings auch den AdRank verbessern. Der AdRank berechnete sich bisher mit einer speziellen Formel auf Grundlage des Gebots und des Qualitätsfaktors. Die Berechnung des AdRanks wird nun um die Anzeigenerweiterung ergänzt.

Es gibt verschiedene Formen von Anzeigenerweiterungen. Eine der bekanntesten Anzeigenerweiterung ist die “Sitelink-Erweiterung”, die Deeplinks zu verschiedenen Themen ermöglicht. Damit kann beispielsweise auf weitere Angebote eines Shops, einen Blog oder auf die Filialsuche aufmerksam gemacht werden. Eine weitere Anzeigenerweiterung ist die Standort-Erweiterung. Der Name ist selbstredend und gibt dem User Informationen, an welchem Ort der nächstgelegene Shop zu finden ist. Diverse Anzeigenerweiterungen können auch in Kombinationen erscheinen.

Anzeigenerweiterung

Quelle: Google.ch; Anzeige mit zwei verschiedenen Anzeigenerweiterungen: Standort und enhanced Sitelinks

weiterlesen

Universal Analytics: Was zu beachten ist

Dienstag, 3. Dezember 2013 | Von: | Kategorie: Web Analytics | 0 Kommentare

Universal Analytics ist in aller Munde, doch was passiert mit dem alten Google-Analytics-Konto? Google bietet seit Oktober 2013 eine einfach Lösung zur Migration auf Universal Analytics an, dies lässt die Analytics Herzen höher schlagen. Die Meinungen bezüglich der Handlungsoptionen sind jedoch geteilt. Einige Experten drohen mit Datenverlust, andere sehen keinen Handlungsbedarf.

Unabhängig eigener moralischen und ethischen Vorstellungen bezüglich Universal Analytics, bietet Yourposition eine visuelle Strukturhilfe an. Die Infografik basiert auf vier Phasen (von Google angekündigt), welche jedoch zeitlich nicht bestimmbar einzuordnen sind, dennoch als grobe Richtlinien gelten.

Migrate to Universal Analytics (Flowchart)

Unseriöse Suchmaschinenoptimierung: Nichtwissen schützt nicht vor Rauswurf bei Google

Freitag, 29. November 2013 | Von: | Kategorie: Suchmaschinenoptimierung | 6 Kommentare

Wer an einen unseriösen SEO gerät, fliegt früher oder später bei Google aus dem Index. Das ist umso unangenehmer, als viele Unternehmen schlicht nicht wissen, wie ihnen geschieht. Wie soll der Laie beispielsweise ahnen, was ein unsauberer Link-Aufbau ist und welche Gefahr dabei droht? Der Experte weiss es. Umso übler, wenn er die Finger nicht davon lässt.

Da singt man ein Hohelied auf die Zukunft der Suchmaschinenoptimierung, nur um gleichentags auf sehr gegenwärtigen Boden zurückgeholt zu werden. Und zwar mittels Anruf eines verzweifelten KMU-Geschäftsführers, der vor wenigen Wochen aus Google rausgeflogen ist, und keine Ahnung hat, weshalb.

Seine Klage:

«Ich bin bei Google verschwunden. Meine SEO-Agentur meinte bloss, Google habe da wohl etwas geändert. Jetzt bleiben die Aufträge aus, und ich habe von Internet wenig Ahnung!»

Der Grund war unschwer zu finden. In den Webmaster Tools lag kein Hinweis auf einen  manuellen Eingriff  seitens Google vor, also muss der Absturz algorithmisch bedingt sein. Der Vergleich der Sichtbarkeitskurve in Searchmetrics mit der Timeline der Algorithmen-Updates bestätigt das:

SEO Visibility: Dank Penguin Aus Google-Index geflogen

Das Desaster hat also vermutlich mit den Backlinks zu tun, die auf die Website verweisen: Ein zentraler Aspekt der Penguin-Updates ist es, unnatürliche Backlink-Muster erkennen und abstrafen zu können. Und unnatürlich ist dieses Backlink-Muster schon auf den ersten Blick: Dass mehr als 65’000 Links auf die nischenhafte B2B-Domain verweisen, ist absurd. Ausserdem handelt es sich bei diesen Links um einen Misthaufen. Das vernichtende Urteil von Link Detox, das Backlinks auf ihren Spam-Charakter hin untersucht:

Giftige Links: Ergebnis von Link Detox

Das ist unschwer nachvollziehbar: Mit Keywords vollgestopfte Links von Domains mit Namen wie «internetlinks.xy» (TLD bitte nach Belieben mitdenken),  «partnerlink» oder auch (Zartbesaitete bitte kurz wegschauen) «hodenmumps» sind nicht direkt Vertrauen erweckend.

weiterlesen

Weshalb (not provided) eine gute Sache ist

Montag, 25. November 2013 | Von: | Kategorie: Suchmaschinenoptimierung | 9 Kommentare

Im Oktober 2011 begann Google damit, den Referrer seiner organischen Suche zu unterdrücken. Das betraf zunächst nur Klicks von Usern, die eingeloggt in Ihren Google Account surften. Seither ist der Anteil des Gratis-Traffics von Google, der keinerlei Keyword-Informationen mehr enthält, stark gestiegen: Inzwischen macht das berüchtigte (not provided) rund 80% aus. Und das ist wahrscheinlich gut so.

Als Google Ende 2011 den «Encrypted Search» einführte und Keyword-Informationen zu unterdrücken begann, schätzte Matt Cutts, Head of Google’s Webspam Team, dass rund 5% des Gratis-Traffics von Google davon betroffen sein würden. Ein Wert, der anfänglich zutraf, seither aber diverse Sprünge nach oben vollführt hat, insbesondere seit August 2013:

Sample: 1 CH-Online-Shop, ca. 5.5 Mio. Zugriffe.
Mehr Infos und Quellen per Mouseover.

(not provided) macht heute bis zu 80% aus, Tendenz weiterhin steigend. Die Folge: Website-Betreiber und insbesondere ihre SEOs haben heute keine Möglichkeit mehr, den Traffic via Organic Search umstandslos auf Keyword-Ebene auszuwerten.

Das zweifelhafte Privacy-Argument

Das Argument, mit dem Google damals den Schritt begründete:

«As search becomes an increasingly customized experience, we recognize the growing importance of protecting the personalized search results we deliver.»

An diesem Privacy-Argument hält Google – wider besseres Wissen – bis heute fest. Als im August 2013 (not provided) massiv hochschnellte, bestätigte man (Fettmarkerung von mir):

«We’re now working to bring this extra protection to more users who are not signed in.»

Das ist, mit Verlaub, Mumpitz, und das weiss Google auch:

AdWords und Gratis-Listings: unterschiedliche Privacy

AdWord oder Gratis-Ergebnis: User, Keyword und Zielseite sind je identisch. «Extra Protection» kriege ich aber nur, wenn ich aufs Gratis-Ergebnis klicke; das AdWord hingegen liefert mein Keyword unverändert mit. «Google puts a price on privacy», kommentierte Searchengineland deshalb schon 2011. Obschon das Privacy-Argument grundsätzlich korrekt wäre (wie das «AOL search data leak» schon 2006 drastisch bewies), kompromittiert es Google also umgehend mit seiner widersprüchlichen Praxis.

Die am häufigsten geäusserte Expertenmeinung: Google schaffe damit nur ein weiteres Verkaufsargument für AdWords. Diese Meinung basiert auf zwei Annahmen: Google hoffe erstens darauf, das Privacy-Argument werde nicht durchschaut; und AdWords, deren Leistung hochtransparent ist, würden zweitens von plumpen Verkaufsargumenten profitieren. Beide Annahmen sind abwegig.

(not provided) hat deshalb meines Erachtens einen ganz anderen Zweck, oder allermindestens eine andere Wirkung: Es könnte SEOs zur (längst überfälligen) Vernunft zwingen. (Wer das für eine Überschätzung des Einflusses von unseriösem SEO auf Google hält, sei höflich an die Panda- und Penguin-Updates erinnert, die Google nicht bloss mal eben so entwickelt hat.)

Algorithmen sind Abstraktionen, Relevanz ist real

Googles Aufgabe ist es, User-Vorlieben zu erkennen und algorithmisch verwertbar zu machen, so dass relevante Trefferlisten entstehen. Diese Aufgabe erfüllt Google so gut und mit einem so grossen ökonomischen Impact, dass sich die Sache scheinbar paradoxerweise in vielen Fällen gegen Google (und das Web) selber wendet: Website-Betreiber und SEOs orientieren sich oft nicht an den Vorlieben des Users, sondern an jenen von Google. Damit aber sind Googles Algorithmen auf einmal kein Bewertungssystem mehr, sondern bloss noch Self Fulfilling Prophecies (i.e. «Google misst Links, also holen wir uns welche.»)

Nun wären in einer idealen Welt User- und Google-Vorlieben identisch. Genau das muss ja auch Googles Ziel sein. Die Realität sieht aber selbstverständlich anders aus: Googles Algorithmen, so bewundernswert gut sie auch funktionieren mögen, stellen stets Abstraktionen dar, weisen notgedrungen Schwachstellen, Löcher und Anachronismen (Stichwort Pagetitle) auf.

Aktuelles Beispiel: Das Aufkommen von Single Page Websites (oft im Zusammenhang mit Parallax-Scrolling-Effekten). Allem Anschein nach lieben User sowas, Google hingegen kriegt Schluckauf, da auf einer einzigen Page die unterschiedlichsten Inhalte versammelt sind. Die Konsequenz kann ja nun anbieterseitig aber nicht sein, auf derlei Single Pager zu verzichten. Stattdessen muss Google seine Algorithmen anpassen, wenn es sein Leistungsversprechen weiterhin einlösen und etwa Glanzstücke wie jenes des «Guardian» Abschnitt für Abschnitt angemessen einstufen will.

Die Keyword- und Ranking-Obsession

2008 konstatierte Marissa Mayer, damals noch Vice President bei Google:

«Search is only 10% done.»

Zwar ist man heute weiter, zugleich sind auch die Erwartungen gestiegen. Das Statement wird deshalb bis auf weiteres gültig bleiben. Das aber heisst: Herkömmliches, algorithmen-orientiertes SEO ignoriert 90% seiner Aufgabe.

Der Kern des Problems: das Keyword.

Immer noch verteilt Google den allergrössten Teil seines Traffics via Keyword-Suche zu den Websites. Alternative Konzepte à la «Google Now», die bloss noch mittelbar auf Keyword-Eingaben beruhen, stecken noch in den Kinderschuhen.

Nun ist aber diese Informationseinheit «Keyword» trügerisch leicht fassbar: Der SEO erkennt, wie gesucht wird, und er beginnt, die ihm anvertraute Website mit Nachdruck für eine zwar vielfach sehr grosse, aber dennoch ausgesprochen endliche Zahl von Keywords zu optimieren, und das stets mit jenem 10%-Horizont des Google-Algorithmus im Blickfeld. Das ist verständlich, aber komplett falsch.

Zielführender wäre ein Ansatz, der den Sinn und Zweck jener Algorithmen mitbedenkt und gewissermassen Google vorausgeht: Google will seinen Nutzern tolle Websites liefern, über die man gerne und gut spricht; also muss SEO bedeuten, tolle Websites zu kreieren, über die man gerne und gut spricht.

Das erreiche ich aber nicht, indem ich obsessiv Rankings einzelner Keywords überwache, eng fokussierten Link-Aufbau betreibe und fein austeste, welche Keyword-Reihenfolge in der Headline Google wohl am ehesten honoriert. Im besten Fall treffe ich dabei mehr oder minder zufällig den Sweet Spot von Google und den Usern zugleich; oftmals stelle ich dabei aber keine Relevanz her, sondern simuliere sie bloss; und im schlechtesten – und weitaus häufigsten – Fall wird bloss SEO-Mist à la eHow produziert.

Und genau darum geht es meiner Meinung nach bei (not provided): ums Ausmisten.

Verlust von Marktforschungsdaten?

Einerseits ruft Google mit (not provided) laut und deutlich, man solle endlich aufhören, sich um den Algorithmus zu kümmern und sich endlich mit dem User beschäftigen; andererseits generiert genau dieser SEO-Fokus auf den Google-Algorithmus Umsätze, Gewinne und Arbeitsplätze, weshalb es sich viele Unternehmen gar nicht leisten können, den Blick zum Horizont der Web-Suche zu heben. Kurzfristig stünde dabei ganz einfach zu viel auf dem Spiel, und deshalb ist (not provided) für Google auch ein Balanceakt.

Deshalb wohl liefert es immer noch umfangreiche Keyword-Daten: Suchhäufigkeiten lassen sich im Google Keyword Planner gratis und franko erheben, Einblend- und Klickzahlen auf Keyword-Ebene stehen in den Google Webmaster Tools unverändert (und ebenfalls gratis), wenn auch interpretationsbedürftig zur Verfügung. Das Argument, Google entziehe mit (not provided) dem Markt wertvolle Marktforschungsdaten, sticht deshalb nicht. Ausserdem kann ein Zusammenspiel von Google Webmaster Tools, 3rd Party Tools wie Searchmetrics und Google Analytics weiterhin sehr granulare Daten liefern. Der Punkt aber ist: Es ist aufwändiger. Und damit wird ein zu kurz gedachtes SEO immerhin erschwert.

Wenn also (not provided) dabei helfen kann, ein neues und umfassenderes Verständnis von SEO, dem Web ganz allgemein und User-Bedürfnissen im Speziellen zu erreichen, ist letztlich allen geholfen: SEO soll tolle Websites hervorbringen. Die Sichtbarkeit in Google wird die logische Konsequenz sein.

Full Disclosure: Vor etwas mehr als einem Jahr sah ich das noch komplett anders. Dank obigem Post werde ich jetzt also in jedem Fall Recht behalten.

August 2013: Stillschweigend führt Google Safe Search für alle ein Januar 2013: Wer die Chrome Omnibox nutzt, nutzt automatisch Safe Search September 2012: Safari in iOS 6 deklariert Organic Search Traffic als Direct Traffic Juli 2012: Der neue Firefox 14 macht Safe Search zum Default Mai 2012: (not provided) erreicht die Schweiz Google unterdrückt Referrer von Usern, die in Ihren Google Account eingeloggt sind (google.com only)

Über Authentizität im Online Marketing & SEO im Jahr 2014 – Nachtrag von der Pubcon Las Vegas

Dienstag, 12. November 2013 | Von: | Kategorie: Suchmaschinenoptimierung | 1 Kommentar

Vier Tage lang hat sich die Online-Marketing-Welt zusammengefunden – mitten in der Wüste aber gut klimatisiert im Las Vegas Convention Center. Heiss geredet hat man sich trotzdem – nicht nur in den acht parallelen Sessions zu Dutzenden von Themen rund um SEO, Social Media Marketing, digitalen Markenaufbau, Usability und Content Marketing. Auch und vor allem im Rahmen informeller Gang- und Lunch-, Morgen- und Abend-Gesprächen wurde wertvolles Branchenwissen ausgetauscht, von dem in Lehrbüchern und Fachblogs eher selten die Rede ist. Yourposition war in diesem Jahr zum ersten Mal auf der Pubcon und hat aus dem Stimmenrauschen die wichtigsten Tonlagen herausgehört.

Hebel

Die Grenzen einzelner Marketing-Disziplinen verschwimmen. Suchmaschinen berücksichtigen Social Media Aktivitäten, TV verlagert sich ins Web, die Customer Journey wird komplex – besser: ihre immer schon vorhandene Komplexität kann immer besser gemessen und weiterlesen

Rechtliche Herausforderungen für Schweizer Online-Shops

Mittwoch, 6. November 2013 | Von: | Kategorie: E-Commerce | 0 Kommentare

Schweizer Konsumenten sind beim Online-Shopping gesetzlich weit weniger geschützt als die Nachbaren in den umliegenden EU-Ländern. Werden internationale Shops in der Schweiz aktiv, so sichern sie den hiesigen Käufern meist freiwillig die strengeren Konsumentenrechte zu. Am Markt etablieren sich somit höhere Standards. Yourposition hat den Rechtsanwalt Lukas Bühlmann zu einem Interview getroffen.

Welche rechtlichen Probleme identifizieren Sie häufig bei Schweizer Online-Shops?

Lukas BühlmannLukas Bühlmann: Häufige Fragestellungen tauchen im Zusammenhang mit der korrekten Preisangabe auf. Oft werden die Versandkosten zu wenig transparent ausgewiesen. Auch die Ausgestaltung der AGB und deren gültiger Einbezug ist regelmässig kein Selbstläufer. Damit der Vertrag unter den vom Shop-Betreiber gewünschten Bedingungen zustande kommt, ist ein gültiger Einbezug der AGB erforderlich. Voraussetzung hierfür ist beim Online-Vertragsschluss ein rechtzeitiger Hinweis auf die Geltung der AGB. Dieser Hinweis muss vor Abgabe der Bestellung erfolgen und der Kunde muss die Möglichkeiten haben, die AGB zu lesen. Eine grosse Herausforderung stellen zudem Bestellungen für nicht mehr lieferbare Artikel dar, denn es kann durchaus sein, dass mit der Bestellbestätigung bereits ein gültiger Vertrag mit einer Lieferpflicht zustande kommt.

Das Gesetz gegen unlauteren Wettbewerb (UWG) und die Preisbekanntgabeverordnung (PBV) wurden im April 2012 angepasst. Wie tangiert dies Schweizer Shop-Betreiber?

Online-Shops sind seither unter anderem zur Angabe eines Impressums und zur unverzüglichen, elektronischen Bestätigung einer Bestellung verpflichtet. Bei der Umsetzung dieser Anforderungen muss sichergestellt werden, dass nur Bestellungen automatisiert bestätigt werden, nicht aber der Vertragsschluss. Es kommt also auf das richtige Wording an.

Im Online-Marketing sind Promotionen und Gewinnspiele beliebte Mittel, um die Aufmerksamkeit auf sich zu ziehen. Was gilt es hier zu beachten?

In der Praxis zeigt sich immer wieder, dass sich die Veranstalter der mit einem Gewinnspiel verbundenen finanziellen und rechtlichen Risiken nicht bewusst sind. Beispielsweise kann das Anbieten von Gewinnspielen mit Busse bestraft werden, wenn die Teilnahme daran an einen Kauf gekoppelt ist. Dies hat zur Folge, dass die Veranstaltung eines Gewinnspiels nur zulässig ist, soweit die Teilnahme daran unentgeltlich ist, d.h. eine Teilnahme ohne den Abschluss eines Rechtsgeschäfts möglich ist. Dieser Umstand ist vielen Online-Händlern nicht bekannt.
Neben der Einhaltung dieser Vorschriften sind zudem die Anforderungen des Datenschutzgesetzes an die rechtmässige Bearbeitung von Kundendaten zu beachten. Die Erstellung einer Datenschutzerklärung ist oft schwieriger, als man zuerst denkt. Oft finden Datenbearbeitungen im Sinne des Gesetzes statt, ohne dass sich der Shopbetreiber dessen bewusst ist.

weiterlesen

Google Tag Manager – Digital Analytics ohne IT?

Montag, 21. Oktober 2013 | Von: | Kategorie: Tag Management, Web Analytics | 1 Kommentar

Ein gutes Jahr ist es her, seit Google den Google Tag Manager einem Markt präsentierte, in dem das Thema Tag Management Systems noch weitgehend unbekannt war. Wie der Name schon verrät, ist der GTM als „Tag-Container“ zu verstehen, aus welchem diverse Codes zentral ausgesteuert werden können. Dies soll die Übersicht der Codes auf der Webseite gewahren und IT-Aufwände minimieren.

“Mit dem Google Tag Manager können Sie ihre Website-Tags und mobilen Anwendungen hinzufügen und aktualisieren – einfach und kostenlos, wann immer Sie wollen, ohne die IT-Abteilung einzuschalten.”

Das hört sich doch an, wie das Paradies für Digital Marketers! Einfach publishen was das Zeug hält!

Letzten Monat kommentierte Google: “We’ve seen impressive growth since the beginning of the year, with nearly 300% growth in traffic and 120% growth in enterprise customers.” Tag-Management-Systeme sind heute im Umfeld des Digital Analytics kaum noch wegzudenken. Doch hält das Tool, was es verspricht? Ist es so einfach zu bedienen und ohne Risiken?

In den letzten Monaten konnte ich in diversen Projekten meine Erfahrungen und Erkenntnisse mit dem Google Tag Manager sammeln. Hier einige Learnings: weiterlesen

TV Tracking: Online-Wirkung von TV-Werbung

Montag, 30. September 2013 | Von: | Kategorie: Digital Marketing, Google AdWords, Web Analytics | 1 Kommentar

Wer TV Spots schaltet, verfügt idealerweise über eine mobile Website, eine AdWords-Kampagne, die die Spot-Inhalte aufgreift, und über eine solide Remarketing-Strategie. Sonst verpufft viel Wirkung. Dies das Ergebnis unserer Fallstudie zu TV-Werbung und ihrem Online-Effekt.

Bei TV-Werbung geht es um viel Geld: Laut Mediafocus wurden im ersten Halbjahr 2013 gut 1.2 Mia. Franken in TV-Einschaltungen investiert, dem ganzen Messdebakel zum Trotz.

Zugleich wird trotz dieser Investitionsgrösse und trotz markant verändertem Medienverhalten der Bevölkerung kaum gemessen, welchen Impact TV-Werbung auf den Website Traffic hat. Dabei geben heute bereits 59% aller Fernsehzuschauer an, mindestens gelegentlich TV und Internet parallel zu konsumieren. Diese Parallelnutzung lässt sich anhand zahlloser Beispiele aufzeigen: Wird in der Quizsendung «Wer wird Millionär?» gefragt, welcher Berufsstand einen «Râteau» verwende, schiesst die Suchhäufigkeit dieses Begriffs bei Google umgehend hoch.

Die Hypothese, derlei Effekte würden auch durch TV Spots erzielt, liegt nahe. Folglich könnten Traffic-Messungen sehr wohl dazu beitragen, die Wirksamkeit von TV-Einschaltungen zu bewerten. Tools etwa von intelliAd oder Refined Labs führen derlei Messungen schon heute nahezu vollautomatisch durch und kalkulieren den Traffic Lift, den TV-Kampagnen generieren. Dennoch ist TV Tracking hierzulande eine Seltenheit. Zu Unrecht, wie unsere Fallstudie zeigt.

weiterlesen

Yourposition am Nabel der digitalen Welt – dmexco 2013

Mittwoch, 25. September 2013 | Von: | Kategorie: Digital Marketing | 0 Kommentare

Die Welt des digitalen Marketings traf sich auch dieses Jahr am 18./19. September wieder in Köln. Das diesjährige Thema der dmexco “Turning Visions into Reality” zog uns fast magisch an. Jedoch nicht nur uns…

(Von Zsuzsanna Balazs und Simon Griesser)

Besucherrekord

Congress HallKostenlose Messe und Konferenz – grundsätzlich ja ein phantastisches Konzept. Allerdings scheint dieses etwas gar erfolgreich zu sein, die über 26‘000 Besucher aus 80 verschiedenen Ländern auf  über 57’000 m² Expofläche, stellen einen neuen  Rekord dar. Die damit einhergehenden Probleme waren vielfältig: Monate im Voraus ausgebuchte Kölner Hotels, Verkehrsstau vor dem Messegelände, überfüllte oder gar nicht mehr zugängliche Konferenzsäle (leider funktionierte auch die Liveübertragung der Congress Hall nicht immer – was bei einer Digital Messe etwas ironisch wirken könnte) sowie zusammengebrochenes WiFi und abstürzende dmexco-Apps. Wir scheiterten des öfteren an den “Türstehern” vor den Hallen und Seminarräumen.

Messe

Rot-Weisser Gemeinschaftsstand742 Aussteller aus 26 Ländern tummelten sich auf 57’000 m² Expofläche. Ja, alles neue Rekorde für die dmexco – obwohl nur 3 der insgesamt 11 Hallen der Koelnmesse genutzt wurden. Zum ersten Mal gab es sogar einen rot-weissen Gemeinschaftsstand von IAB Switzerland und IAB Austria. Unter den Schweizer Ausstellern waren adisfaction, admazing, adresult,  Goldbach Audience, NetProfit, NZZ-Netz Werbemarkt, Omnimedia, Ringier, Stailamedia, Swisscom und Zattoo Schweiz. Aber auch sonst waren unzählige internationale Aussteller vertreten, die den Beweis für das hohe Ansehen der dmexco weltweit lieferten. Besonders die Bereiche E-Commerce und Mobile verbuchten ein Wachstum an der Messe.

Konferenz

Die Pannel-Diskussionen in der Congress Hall waren zum Teil hochkarätig besetzt und die Titel (wie z.B. “Calling for a new age of imagination”) lockten unglaubliche Menschenmassen an. Es wurde viel diskutiert über Kreativität und Visionen in den Digitalen Medien sowie über die Nicht-Trennbarkeit von Off- und Onlinemedien. Aber es wurde auch viel reflektiert und über das eigene Selbstbild der gesamten Branche philosophiert.

In den Seminarräumen war die Qualität der Referate durchzogen. Sie reichte von simplen Firmen- und Software-Präsentationen bis hin zu wirklich hörenswerten Beiträgen und Diskussionsrunden. Als Trend konnte hier Big Data, Content Marketing und Social Media ausgemacht werden. Die Referate fielen nicht gerade durch knackige Bezeichnungen auf. Als Titel prangte im Programmheft jeweils der Firmenname, gefolgt von einer Beschreibung. So nannten sich zwei herausragende Veranstaltungen etwa „Suchmaschine oder Freund? Content Marketing im Kontext von Empfehlungen, Social Search und Storytelling“ oder „Quantcast will demonstrate why the industry hast to move away from last touch and strive for a more transparent attribution model“.
Einige Vorträge sind auf dem YouTube Channel der DMEXCO zu finden.

Standpartys

StrombergWas wir aus der Schweiz nicht so kennen (leider, muss man sagen), sind die Standpartys an Messen. Eine feine Sache: Um ca. 18 Uhr rüsteten viele Stände auf zu regelrechten Event Locations mit DJs, reichlich Alkohol und Snacks. So kann von Stand zu Stand gehend gefeiert und Networking betrieben werden. Es traten diverse Promis auf den Plan wie der Kaiser aka Franz Beckenbauer oder etwa der Musiker Gil Ofarim, das YouTube Sternchen MaximNoise oder Christoph Maria Herbst (besser bekannt als „Stromberg“), der eine launige Rede rund um das Internet hielt (Von dem er übrigens auf dieser Messe dermassen überzeugt wurde, dass er sich nun auch eins kaufen will!). Auch sonst boten die Standpartys einiges an Überraschungen, so waren etwa Wrestler und Bayern zugegen, und an einem Stand wurden wir gar mit einem Herz beehrt, aus Lebkuchen zwar, aber immerhin – es ist schliesslich Wiesn-Zeit.

Partys

Die in- und offiziellen DMEXCO-Partys sind, was man so liest, ziemlich legendär. Und früh ausgebucht. Uns verschlug es mit etwas Glück an die OVK-Party auf der „Ocean Diva“, einem Schiff auf dem Rhein. Ein Glücksgriff, wie sich herausstellte: Leckeres Essen, Drinks, fröhliche Leute und vor allem eine Band, die tüchtig einheizte. Bestimmt die beste DMEXCO-Party in dieser Nacht.

Nach der dmexco ist vor der dmexco

Die dmexco 2014 findet am 10. und 11. September in Köln statt – wir werden wieder dabei sein.

Kontextualisierung als Königsdisziplin des Marketers: über Korrelation, Kausalität und die suggestive Macht der Daten

Freitag, 30. August 2013 | Von: | Kategorie: Online Marketing, Web Analytics | 1 Kommentar

Online-Marketing-Experten sind der Meinung, dass bis zu 40 Prozent der Marketing-Budgets in Unternehmen nicht sinnvoll eingesetzt werden. Dies erstaunt sehr, reichen doch die Datenmengen zum Konsumverhalten, die tagtäglich generiert und gespeichert werden, längst bis ins Unermessliche.

Es gibt kaum eine Marketing-Fachveranstaltung, in denen Big Data und Data Mining nicht an vorderster Front proklamiert und diskutiert werden. Daten, da sind sich die Fachleute seit vielen Jahren einig, sind “das neue Öl”. Marketing wird immer messbarer, es gibt kaum einen Interaktionspunkt mit dem Kunden, dem Markt und den Produkten selbst, der nicht umfangreich gespeichert wird. Wie also ist dieser erschreckend hohe Anteil ineffizienter Marketing-Budgets zu erklären, wenn es doch keine grosse Herausforderung mehr darstellt, eine nie dagewesene Vielzahl an relevanten Datenpunkten zu generieren und zu sammeln?

Bereits vor gut einem Jahrhundert wurde evident, dass Marketing (i.e. Werbung) nicht immer zielgerichtet und effizient ist. “Half my advertising is wasted, I just don’t know which half.” (John Wanamaker, 1838-1922). Ich denke, damals war das Hauptproblem das Fehlen der Daten.

Das Problem heute ist ein Anderes: Daten sind bereits genug da, es mangelt aber an “Kontext” Um aus dem Rauschen des Datenbergs sinnvolle und aussagekräftige Analysen und Handlungsempfehlungen herauszuarbeiten, bedarf es der Einbettung der Daten in relevante Sinnzusammenhänge hinter diesen Informationen.

Korrelation ≠ Kausalität: Über Browser, Verbrechen, Störche und Babys

Kürzlich stolperte ich im Sozialen Netzwerk meiner Wahl über folgende Grafik:

IEvsMurderRate

Hier handelt es sich natürlich (zumindest für mich) um völligen Quatsch – aber es zeigt eigentlich ganz gut das zentrale Problem im Zeitalter von “Big Data” auf [abgesehen davon, dass wir es hier zusätzlich noch mit einer manipulativen Achsen-Festlegung zu tun haben, die eine parallele Korrelation suggeriert]:

Wenn man nur genug Daten hat, lassen sich immer Korrelationen finden, und damit auch Nebelbomben.

Nebenbemerkung: Um die Korrelation in diesem Falle zu überprüfen (und letztendlich entkräften), bedürfte es enorm viel Recherche – denn hier prallen Datenmengen aus komplett unabhängigen Sinnzusammenhängen und Bereichen aufeinander. Ohne diesen Kontext nun zu analysieren, wage ich die These, dass hier nicht nur keinerlei kausale Verbindung vorliegt, sondern auch dass die Korrelation rein zufällig und willkürlich ist. Eine über viele Ecken indirekte Verbindung mag durchaus vorliegen, z.B. in einer der Ursachen für beide Trends: zunehmende Technologisierung (sichtbar in bewusster Entscheidung der Nutzer für einen Browser ihrer Wahl) korreliert in aller Regel auch mit zunehmendem Wohlstand, was in aller Regel die Verbrechensrate sinken lässt.
Die Identifikation einer solchen indirekten Verbindung, wenn sie denn vorliegt, würde uns jedoch in der Praxis des Data Mining keinerlei Mehrwert generieren, und kann getrost auf wissenschaftlich-theoretischer Ebene weiterdiskutiert werden.

Es geht darum, den Daten “Kontext” zu geben

Eine vielleicht engere Verbindung von korrelierenden Daten kann man im folgenden Beispiel des durchaus wissenschaftlichen (!) Diskurses um die “Theory of the Stork” erkennen. Zwischen den Jahren 1965 und 1980 wurde eine beeindruckende Korrelation zwischen der Entwicklung der Geburtenrate und dem Vorkommen von Storchenpaaren in Niedersachsen (D) entdeckt, was für eine Reihe an folgenden Untersuchungen und Erklärungsversuchen sorgte.

StoercheBabys

Inhaltliche Quintessenz des Diskurses, und damit der “Kontext” scheint zu sein: beide Phänomene (Störche und Neugeborene) sind in gewisser Weise abhängig vom Grad der Urbanisierung. Auch hier haben wir es wie beim Browser/Mord-Beispiel also mit einem selbstverständlich nicht kausalen, im besten Falle aber indirekten Zusammenhang über gemeinsame Einflussfaktoren zu tun.

Aktuelle Kontroverse: Korrelation-vs-Kausalität in der Suchmaschinenoptimierung

Im Bereich Suchmaschinenoptimierung gibt es derzeit eine interessante Diskussion zu Korrelation vs. Kausalität. Hiessen die Untersuchungen der renommierten amerikanischen SEO-Plattform moz.com früher “Ranking Factors”, wurde der Korrelations-/Kausalitäts-Problematik Rechnung getragen, indem die Publikationen Anfang des Jahres in “Correlation Metrics” umbenannt und das Problem thematisiert wurde (ähnlich auch beim Technologieanbieter Searchmetrics).
Ironie an der Sache: aktuell ist moz.com jedoch selber vermutlich Opfer von falsch interpretierter Korrelation. Sie haben herausgefunden, dass es eine verblüffende Korrelation zwischen Google +1 Bewertungen und Rankings in Suchergebnissen gibt und legen daher nahe, dass hier auch eine Kausalität besteht: mehr +1 führe zu besseren Rankings.

Googles Chef-Webspam-Bekämpfer Matt Cutts hat darauf sofort reagiert, und einer Kausalität klar widersprochen. Es herrsche eine einfache Korrelation zwischen hohen Rankings und vielen +1: je besserer der Content, desto besser das Ranking und umso mehr +1.

Gefahr der Misinterpretation von Korrelationen beim Qualitätsfaktor (QS) im AdWords

Heute las ich einen Blogbeitrag, der sich der immer wieder aktuellen Debatte um den Qualitätsfaktor durchaus pragmatisch nähert; insgesamt schlüssig zeigt dieser wichtige Einflüsse beim Qualitätsfaktor auf. Aber an einer Stelle kommen wir zu einem in diesem Zusammenhang interessanten Punkt: “Not only is QS directly related to your actual costs per click, but also to your Cost-per-Order (CPO).” (Der Text bezieht sich an diesem Punkt auf eine Analyse zu Qualitätsfaktor und Keywords auf Searchengineland von Larry Kim, in der dieser “a very strong relationship between average cost per conversion and average Quality Score” findet).

Hier ist meiner Meinung nach aber Vorsicht geboten: die obige Aussage der direkten Relation zwischen CPO und QS steht als einer von “six facts” inmitten von kausalen Zusammenhängen bzw. Wirkungs-Mechanismen (CTR, Keyword-Text-Relationen, Positions-Normalisierung, Minimum Bids bei schlechter Qualität usw.). Hier suggerieren also zwei Faktoren eine kausale Verbindung von CPO und QS: erstens die Bezeichnung “directly related” und zweitens die Position der Aussage inmitten der Argumentationskette bzw. Aufzählung von “Fakten”.

Viel wichtiger als “Fact” wäre hingegen genau das, was weiter unten im Blog steht: “… conversion rate doesn’t factor into QS”. Die Relation zwischen CPO und QS ist beileibe keine direkte und kausale – sondern es herrscht eine reine Korrelation, welche auch in einem Nebensatz bei Searchengineland thematisiert wird: “I found that high Quality Score keywords converted only very slightly better than low Quality Score keywords, meaning that the huge reductions in CPA were being primarily driven by the CPC savings (or increased click costs) — which are a direct result of your Quality Score.”

Insofern (und da haben beide Blogs selbstverständlich absolut Recht): optimiert den Qualitätsfaktor, und dann bessert sich auch der CPO – aber nur, weil der CPC sinkt. Ein per se nicht konvertierendes Keyword (z.B. aufgrund des schlechten Angebots dahinter) wird hingegen nicht durch Erhöhung des Qualitätsfaktors (z.B. durch CTR-Erhöhung) zu einem besseren bzw. guten CPO führen. Es liegt also kein direktes Kausal-Verhältnis vor.

Kreative Königsdisziplin für Marketer: “Kontext” herstellen

Zum datengetriebenen Marketing gehört neben den allgemein banalen Grundlagen “richtiges Messen”, “Trends erkennen” und “Korrelationen aufzeigen” insbesondere also auch “Kontext herstellen” – denn sonst werden all die für sich genommen korrekten Daten schnell zum Holzweg.

Mit anderen Worten: Ein Marketer für regionales Bevölkerungswachstum sollte nicht versuchen, mehr Storchenpaare anzusiedeln, nur weil die Daten dies zunächst suggerieren. Er muss vielmehr die wahren Gründe für Geburtenrückgang im Kontext verstehen und mit entsprechenden Massnahmen die Attraktivität des Kinderbekommens erhöhen, um Wachstum zu erreichen.

Der Weg des datengetriebenen Marketings implizierte bislang vielfach auch eine sehr nüchterne, statistisch-mathematische, fast technokratische Sicht auf die Tätigkeit des Marketers. Die Aufgabe aber, “Kontext” in all die Daten zu bringen erscheint mir jedoch als eigentliche Königsdisziplin des datengetriebenen Marketings.

Dies sollte doch den Marketer freuen – erstens da er doch nicht nur eine Marionette der Daten ist sondern vielmehr kreativ kontextualisiert, und zweitens da er seine 40% Fehlinvestitionen reduzieren kann.