Blogbeitrag

Webanalyse

Nadine

Wolff

veröffentlicht am:

11.09.2013

Big Data, Small Data oder Smart Data? Welche Daten sollten Sie erheben und auswerten?

Inhaltsverzeichnis

Kein Inhaltsverzeichnis vorhanden
Kein Inhaltsverzeichnis vorhanden
Kein Inhaltsverzeichnis vorhanden

Google und Facebook sammeln Unmengen von Daten und nutzen diese gezielt zur Monetarisierung. Anbieter von SEO-Software werben mit schier unglaublichen Datenmengen und beeindruckenden Auswertungen. Das Interesse an „Big Data“ ist ungebrochen. Doch ist das immer der richtige Weg? Wo liegen die Risiken und wo bringen vielleicht die großen statistischen Datenmengen nicht das gewünschte Ergebnis?

Was bedeutet „Big Data“?

Man könnte „Big Data“ vereinfacht als „große Datenmengen“ bezeichnen. Wikipedia zitiert hierzu aus einem Leitfaden der BITKOM:

„Big Data bezeichnet den Einsatz großer Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens.“

Nach dieser Definition geht es also nicht um die reine Menge, die Quantität, sondern um den Zweck, den wirtschaftlichen Nutzen, der mit der Datensammlung und -verarbeitung erfüllt werden soll.

Die Daten werden aus dem Nutzerverhalten, aus einer Vielzahl von Werten und Quellen wie Social Media, Rankings, Trafficzahlen und Klickpreisen berechnet. Im Online Marketing bedeutet dies meist, auf eine der vielen kostenpflichtigen Tools zurückzugreifen, die eine Unmenge an Daten auswerten. Die gelieferten Werte sind mathematisch berechnet, statistische Größen, aus denen oft Handlungsempfehlungen abgeleitet werden. Provokativ gesagt: Es geht um Masse, um den Nutzer als Wert, nicht um das Individuum.

Ist „Big Data“ wirklich hilfreich?

Wie der obige Absatz andeutet: In der Welt der „Big Data“ geht es nicht um persönliche Erfahrungen, nicht um den direkten Dialog mit den Kunden. Es geht um maschinell berechnete Werte. Mit Hilfe von Algorithmen werden Gemeinsamkeiten und Unterscheidungsmerkmale zwischen Nutzern bzw. Nutzergruppen aufgezeigt. Es geht also um Wahrscheinlichkeiten, weniger um Kunden als Individuen. Das Interesse des Werbetreibenden bzw. Website Betreibers steht im Fokus, nicht das Interesse des Kunden. Retargeting ist hier ein Beispiel, das auf die Auswertung großer Datenmengen gestützt wird, aber von vielen Nutzern nicht gut angenommen wird und daher mit großer Sensibilität genutzt werden muss.

Big Data erfordern spezielle Tools, wie sie zum Beispiel MOZ und Searchmetrics anbieten. Die monatlichen Kosten für den Zugang sind überschaubar, Google Tools sind sogar kostenlos nutzbar oder sind gegen Einrichtung eines AdWords Kontos nutzbar. Die Gefahr liegt eher darin, aus den erhobenen Daten nicht die richtigen oder überhaupt keine hilfreichen Schlüsse ziehen zu können. Die Datenflut ist vergleichbar mit der Informationsflut: Viel hilft nicht immer viel, sondern behindert bisweilen schlichtweg, kostet Zeit und damit Geld.

Ob der Ansatz der „Big Data“ also gut oder schlecht ist, hängt grundsätzlich davon ab, ob diese Daten sinnvoll und zielführend genutzt werden.

Datengesteuertes Marketing sollte nicht bedeuten, eine Masse an Daten um ihrer selbst willen zu erheben. Vielmehr sollte es darum gehen, mit diesen Daten konkrete Fragen zu beantworten und sinnvolle Handlungen abzuleiten. Dr. Pete bringt es in einem Interview auf den Punkt:

"Being data-driven isn’t about collecting a mountain of data to hide your problems with – it’s about asking honest questions and finding the right numbers to answer those questions."

Was könnten also solche Fragen und Probleme sein, die durch „Big Data“ beantwortet werden können? Ein paar praktische Beispiele:

 

  • Erhöhung oder Verlust von Sichtbarkeit:

 

  • An Stelle von vielleicht hundert kompetitiven Keywords werden mehrere hundert, je nach Branche sogar mehrere tausend relevante Keywords betrachtet. Ändert sich hier für eine große Anzahl an Keywords das Ranking, zeigt dies, wie sich die Sichtbarkeit einer Domain verbessert oder verschlechtert. „Big data“ kann hier also als Warnsignal eingesetzt werden und Ausgangspunkt für weitere Analysen sein.

 

  • Wettbewerbsbeobachtung:

 

  • Über eine große Anzahl an Keywords lassen sich neue Mitbewerber schneller identifizieren als wenn nur die Handvoll der trafficstärksten Keywords untersucht wird. Vielleicht verwendet der neue Wettbewerber verwandte Keywords oder Synonyme, die jedoch auf die gleiche Zielgruppe abzielen. Besonders für Unternehmen, die viele Produkte anbieten, kann hier eine recht große Anzahl an Keywords relevant sein, die sich kaum manuell auf neue oder erstarkende Wettbewerber überwachen lässt. Auch hier können solche Auswertungen ein wichtiges Signal, sogar eine Art Frühwarnsystem für neue Wettbewerber im eigenen Marktsegment sein.

 

  • Keywordrecherche:

 

  • Es ist nicht nur wichtig, die Keywords zu identifizieren, für die die eigene Website oder der eigene Shop in den Suchergebnissen rankt, sondern auch Potenziale zu erkennen: Auf welche Keywords lohnt eine Optimierung? Gibt es saisonale oder regionale Unterschiede? Wo ist der Wettbewerb besonders hoch und wo ist ein ansteigendes Interesse zu verzeichnen? Auf all diese Fragen liefern statistische Daten, wie sie schon in Google Tools wie dem Keyword Planer (das frei verfügbare Keyword Tool ist zum Bedauern vieler Marketer seit kurzem nicht mehr verfügbar) oder Google Trends zu finden sind.

 

  • Erfolgskontrolle:

 

  • Wie viel Traffic lieferte eine Kampagne? Welche Marketingkanäle brachten anteilig und bezogen auf diesen Traffic die meisten Verkäufe? Und wie sind diese Kanäle einzuschätzen, wenn der ROI berechnet wird? Was ist ein Klick wert, was eine Top-Position in den unbezahlten Ergebnissen? Mit Big Data ist es möglich und vor allem auch sinnvoll, Analysen dieser Art durchzuführen – auch hier immer mit dem Ziel, konkrete Frage zu beantworten. Zum Beispiel die Frage danach, wie das Marketingbudget verteilt werden sollte.

Es gibt also viele Fragen, die von den großen Datenmengen beantwortet werden können. Die Herausforderung liegt zum einen darin, die richtigen Fragen zu stellen und Antworten zu finden, als auch darin, zu erkennen, welche Daten und Antworten für welchen Entscheidungsträger oder Mitarbeiter wirklich hilfreich sind. In größeren Unternehmen kann dies bedeuten, dass der Redakteur ganz andere Zahlen benötigt als der Social Media Manager, der Vertriebler oder der Geschäftsführer.

In diesem Zusammenhang werden Tool-Lösungen mit individualisierbaren Dashboards interessant, die Nutzern genau die Daten zeigen, die für sie relevant sind. Ein Beispiel für ein solches Tool ist das neue Allmedia Cockpit von .companion mit seinen kanalübergreifenden Auswertungen, das Unternhemen sehr individuelle Verknüpfungen und Verrechnungen von Daten jenseits der Standard-Werte ermöglicht. Michael Heine von .companion: „Mit dem Allmedia Cockpit bekommt jeder User die Möglichkeit, das Tool auf seine spezifischen Anforderungen anzupassen. Wir sind nicht nur Tool, sondern auch Service. Darum können Standard KPIs für alle oder einzelne User jederzeit um individuelle KPI erweitert werden, die das Tool berechnet. Z.B. kann so CpX berechnet werden, oder die Kommunikationswirkung einzelner Maßnahmen, als Vorstufe für ROI-Berechnungen, die ebenfalls möglich sind.“

AMCInterface

„Big Data“? “Small Data”? „Smart Data“!

Dieses Jahr spricht man nicht nur von „Big Data“, Marketer, sogar große Newsseiten diskutieren die Vorteile von „Small Data“ gegenüber den großen Datenansammlungen.

Grundsätzlich ist festzuhalten: Größere Datenmengen bedeuten nicht unbedingt einen proportional höheren Informationsgehalt. Der entscheidende Punkt ist, über genau die Daten zu verfügen, die dabei helfen, ein bestimmtes Problem zu lösen oder eine konkrete Frage zu beantworten. Ob es sich dabei um „Big Data“ oder „Small Data“ handelt, ist unwichtig. Plakativ gesagt: Es geht um „Smart Data“, egal welcher Größenordnung, also Daten, die eine sinnvolle Nutzung ermöglichen, genau die passenden Daten, um relevante Fragen zu beantworten.

Dabei können durchaus die “kleinen Daten” ausreichend sein: Die Daten, die im direkten Dialog mit den Kunden entstehen, die der Kunde auf der Website oder im Online Shop hinterlässt, die er selbst eingibt. Zunächst ohne zu generalisieren, ohne den Versuch Muster zu erkennen. Die große Stärke dieser Daten: Der Mensch hinter den Daten steht im Fokus, er gerät nicht in Gefahr, über die statistischen Werte und Wahrscheinlichkeiten in Vergessenheit zu geraten.


Sind „Small Data“ also besser als die vielgepriesenen „Big Data“? Sicherlich nicht. Es kommt darauf an, die passenden Daten auszuwählen, die zuverlässig Fragen beantworten, und sich nicht im Datendschungel zu verirren. Der Wettlauf um immer größere Datenmengen bringt kein Unternehmen weiter, sondern birgt im Gegenteil die Gefahr, die naheliegenden Daten aus den Augen zu verlieren: Die Daten, die im direkten Kundendialog entstehen. Für viele Fragen sind statistische Werte eine sehr gute Möglichkeit, einen Überblick zu gewinnen und konkrete Handlungen abzuleiten. Tools können hierbei eine gute Möglichkeit sein, Daten zu generieren, zusammenzuführen und zu visualisieren. Es sollte jedoch nie das Individuum dahinter vergessen werden.

Nadine

Wolff

Als langjährige Expertin im Bereich SEO (und Webanalyse) arbeitet Nadine Wolff seit 2015 bei den internetwarriors. Sie ist Teamlead im Bereich SEO & Webanalyse und begeistert sich für alle (teils schrägen) Neuerungen von Google und den anderen großen Suchmaschinen. Im Bereich SEO hat Nadine Fachartikel in der Website Boosting veröffentlicht und freut sich auf fachliche Workshops und einen nachhaltigen organischen Austausch.

noch keine Kommentare

Anschrift

Bülowstraße 66

Aufgang D3

10783 Berlin

Newsletter

Anschrift

Bülowstraße 66

Aufgang D3

10783 Berlin

Newsletter

Anschrift

Bülowstraße 66

Aufgang D3

10783 Berlin

Newsletter