DE

EN

Thorsten
Wissen

- Blogbeiträge

Thorsten
Wissen

- Blogbeiträge

Thorsten
Wissen

- Blogbeiträge

Alle Kategorien

SEO

SEA

Social Media

Webanalyse

Growth Marketing

Künstliche Intelligenz

Success Stories

Inside internetwarriors

Suchmaschinenoptimierung mit Bing SEO

16.10.2019

Thorsten

Abrahamczik

Kategorie:

SEO

Als Betreiber einer Webseite möchten Sie, dass Ihre Webseite leicht gefunden wird. Dabei denken Sie häufig an Google, aber nicht an die Suchmaschine Bing, oder? Für viele Webseitenbetreiber ist Suchmaschinenoptimierung ein abstraktes Thema und Bing SEO gehört zu den Bereichen, die schnell in den Hintergrund geraten. Vermutlich liegt dies daran, dass Deutschland ein Google Land ist. Laut Statcounter hat Google in Deutschland einen Anteil von 94,5% in 2019, Bing dagegen jedoch nur von 3%. [caption id="attachment_25213" align="aligncenter" width="1024"] Abb. 1 Statcounter Statistik zur Suchmaschinennutzung in Deutschland in 2019[/caption] Welche Funktionen bietet Bing ? Mit der, bei Suchmaschinen bisher völlig unbekannten, Preview-Funktion von Bing erhält der Nutzer bereits vor dem Betreten der Website nützliche Informationen zu Inhalten und internen Links. Hierbei wird der angezeigte Inhalt tatsächlich aus dem Seiten-Content herangezogen und nicht, wie beim Snippet, aus einer Meta-Description. [caption id="attachment_25221" align="aligncenter" width="1024"] Abb. 1: Statcounter Statistik zur Suchmaschinennutzung in Deutschland in 2019[/caption] Dennoch sollten Sie die Suchmaschine Bing nicht außer Acht lassen. Nutzer, die über Bing kommen, haben häufig ein besseres Nutzerverhalten als Nutzer von Google. Sie rufen im Schnitt mehr Seiten auf, bleiben länger auf der Domain und haben eine höhere Conversion Rate. Es kann sich also durchaus für Sie als Anbieter lohnen, diese Zielgruppe anzusprechen. Ebenfalls basieren die Ergebnisse von Apple’s Siri Dienst und Amazon’s Alexa auf Bing. [caption id="attachment_25223" align="aligncenter" width="1024"] Abb. 2: Vergleich Nutzerverhalten von Bing mit Google[/caption] Gemeinsamkeiten von Bing und Google Prinzipiell optimieren Sie bereits Ihre Webseite für Bing, wenn Sie Suchmaschinenoptimierung nach Google Richtlinien durchführen. Das liegt zum einen daran, dass Bing ähnliche Kriterien nutzt. Zum anderen aber auch daran, dass bestimmte SEO Standards von Bing, Google und weiteren Suchmaschinen in einer Allianz gemeinsam geschaffen wurden. Ein Beispiel hierfür sind die strukturierten Daten von schema.org . Weitere Hilfen für die Bing Suchmaschinenoptimierung Sehr hilfreich ist auch ein Blick auf die Suchergebnisseite von Bing. Dort spezifiziert Bing viel genauer, woher die Daten kommen. Neben der reinen Suchmaschinenoptimierung kann daher auch eine Überarbeitung weiterer Profile im Internet wie Xing, Wikipedia etc. dazu führen, besser bei Bing gefunden zu werden. Die Optimierung multimedialer Elemente auf der Webseite kann ebenfalls bessere Effekte als bei Google zeigen. Sichtbar ist dies bei der Bing Bildersuche oder den Video Ergebnissen. Durch gezielte Nutzung von strukturierten Daten und einer konsistenten Nutzung von alt-Titeln können Sie Bilder und Videos sehr gut in der Suchmaschine platzieren. Darüber hinaus bietet die Bing Suche einige Möglichkeiten, die bei Google nicht zur Verfügung stehen. Beispielsweise lassen sich einzelne Elemente in Bildern auswählen, um nach diesen zu suchen. Videos werden in den Ergebnissen um viele Informationen ergänzt, etwa ob es sich um einen Trailer handelt. Ebenfalls lassen sich die Videos schon in der Vorschau anschauen und Bing berücksichtigt den Verlauf der Suchanfragen, um möglichst passende Ergebnisse auszuspielen. [caption id="attachment_25225" align="aligncenter" width="1024"] Abb. 3: Identifikation von Elementen in der Bing Bildersuche[/caption] Worauf Sie achten sollten Microsoft bietet für seine Suchmaschine diverse Guidelines und Tools an, die Anwender bei einer möglichst guten Suchmaschinenoptimierung unterstützen sollen. Die drei folgenden sind aus unserer Sicht die relevantesten: Bing Webmaster Tools sitemap.xml einreichen URLs blockieren Reports kontrollieren Crawls kontrollieren Mobilfreundlichkeit testen Wir empfehlen wärmstens die Nutzung der Bing Webmaster Tools, um eine bessere Kontrollmöglichkeiten zu erhalten. Natürlich kann die Domain aber auch in der Suchmaschine Bing ranken, wenn sie dort nicht registriert wurde. Dennoch ist es spannend zu sehen, wie Bing die Webseite im Vergleich zu Google einschätzt. Bing Webmaster Guidelines Bing bietet auf seinen Webseiten die sehr informativen Bing Webmaster Guidelines an. Diese bieten Ihnen als Nutzern erste Hilfestellungen rund um das Thema Suchmaschinenoptimierung. Die Anleitungen sind thematisch untergliedert und übersichtlich dargestellt. Sowohl für erfahrene Anwender als auch Personen, die sich neu mit dem Thema Bing SEO beschäftigen und wissen möchten, worauf der Suchmaschinenbetreiber Wert legt, sind die Guidelines hilfreich. Markup Validator Nutzen Sie auf Ihrer Webseite strukturierte Daten, können Sie die korrekte Umsetzung mit dem Bing Markup Validators überprüfen. Unterstützte Formate sind: HTML Microdata Microformats RDFa schema.org OpenGraph von Facebook Beachten Sie jedoch, dass Sie sich für die Nutzung des Tools bei den Bing Webmastertools registrieren müssen. Dies gilt ebenso für den SEO-Analysator und das Schlüsselwort-Recherchetool. Besonderheiten der Suchmaschine Bing Generell möchten wir Ihnen drei Hinweise mitgeben, die Ihnen beim Bing SEO helfen: 1. Exact Match URLs: Bing gewichtet den korrekten Namen in der Domain deutlich stärker als Google. Sollten Sie daher eine Domain besitzen, die Ihren Markennamen enthält, wird diese bei Bing automatisch besser ranken. 2. JavaScript Aktuell ist Bing bei der Berücksichtigung von JavaScript in Webseiten nicht so weit wie Google (Stand 10.2019). Das bedeutet, dass Ihre Webseite bei Google gut ranken und bei Bing schlechter platziert sein kann. Gerade Webseiten, die Inhalte durch JavaScript dynamisch nachladen, sind davon betroffen. Nutzt Ihre Webseite nur wenig JavaScript oder lädt keine Inhalte nach, können Sie diesen Punkt jedoch vernachlässigen. 3. Anpassungen von Google Google nimmt immer wieder Anpassungen an seinen SEO-Vorgaben vor und gewichtet bestimmte Merkmale plötzlich stärker oder schwächer. Die letzte bekannte Anpassung war das Entfernen des „noindex“ aus der robots.txt Datei. Bei diesen Anpassungen ist zu beachten, dass sie nur für Google und nicht automatisch für Bing gelten. Lassen Sie sich also nicht nervös machen. Fazit Die Suchmaschine Bing bietet viele individuelle Funktionen, um sich vom großen Rivalen Google abzusetzen. Gleichzeitig haben ihre Nutzer ein durchweg besseres Nutzerverhalten auf Webseiten, egal in welchem Industriebereich. Damit Ihre Webseite hier gut rankt, müssen Sie nur wenige individuelle Anpassungen vornehmen, können jedoch gute Tools von Bing nutzen, um Ihre Entwicklungen engmaschig zu überwachen. Wobei können wir Sie unterstützen? Sie möchten Ihre Conversions und Umsätze über die organische Suche steigern? Sie ranken bei Google bereits gut und möchten nun mit Bing durchstarten? Wir unterstützen Sie im Bing SEO und erzielen somit höhere Rankings in der Suchmaschine Bing. Nehmen Sie mit uns Kontakt auf, wir freuen uns auf Ihre Anfrage!  

Onpage SEO Maßnahmen für bessere Suchmaschinenoptimierung

18.06.2019

Thorsten

Abrahamczik

Kategorie:

SEO

SEO ist ein regelmäßig verwendeter Begriff bei Online Marketing Verantwortlichen und geht häufig mit Offpage Optimierung einher. Beide Begriffe beschreiben die Suchmaschinenoptimierung der eigenen Webseite . Durch gezielte SEO Optimierung soll die eigene Webseite bei den Suchmaschinen besser ranken, mehr Traffic erzielen und am Ende zu mehr Conversions oder Leads führen. In der Regel kennen die Verantwortlichen aus dem Marketing allerdings nur einen Teil der Maßnahmen, die durchgeführt werden können. Wir erklären Ihnen in diesem Artikel, worum es sich bei Onpage SEO handelt und geben erste Hinweise in der praktischen Umsetzung . Im Internet werden Sie hierbei auch auf verschiedene Schreibweisen stoßen, es ist jedoch immer das Gleiche gemeint. Mögliche Formulierungen sind: Onpage SEO, Onpage Optimierung, Onpage-Optimierung, On Page Optimierung, SEO Onpage, SEO Optimierung oder auch Onsite Optimierung. Onpage Analyse – Der erste Schritt im Onpage SEO Zu Beginn der Arbeiten sollten Sie eine Onsite Analyse der gesamten Webseite machen. Hierbei analysieren Sie zunächst das technische SEO , um mögliche technische Fallstricke zu identifizieren, die das Crawling der Webseite beeinflussen. Im nächsten Schritt überprüfen Sie die Inhalte der Webseite, um eine Content Optimierung durchführen zu können. Nachdem Sie beide Bereiche untersucht haben, können Sie daraus einen priorisierten Maßnahmenkatalog ableiten, den Sie Schritt für Schritt umsetzen. Um die Entwicklung Ihrer Webseite im SEO zu verfolgen, können Sie bei Google die Google Search Console nutzen. Diese stellt eine Schnittstelle zwischen Webseitenbetreiber und Google dar und zeigt an, welche URLs gut ranken, für welche Keywords die Domain gefunden wird und wo es Probleme auf der Webseite gibt. Ebenfalls stellt sie grafisch dar, wie häufig die einzelnen Seiten auf der Suchergebnisseite von Google angezeigt werden. Technisches SEO – Das Fundament der Onpage Optimierung Bevor Sie mit der Optimierung Ihrer Inhalte beginnen können, muss Ihr technisches SEO fehlerfrei umgesetzt sein. Nur so können Sie sicherstellen, dass die Webseite problemlos durch die Suchmaschinen gecrawlt und alle Inhalte einwandfrei gelesen und verarbeitet werden können. Ist das technische SEO nicht korrekt umgesetzt, kann es passieren, dass inhaltliche Optimierungen, die sogenannte Content Optimierung, nicht richtig greifen, weil die Suchmaschinen gar keinen Zugriff auf die Inhalte erhalten. Das technische SEO bildet daher das Fundament jeder SEO Onpage-Optimierung. Crawling – kann die Suchmaschine Ihre Webseite erreichen? Beim Crawling handelt es sich ausschließlich um den Zugriff auf Inhalte und hat nichts mit der Indexierung zu tun. Suchmaschinen wie Google crawlen durchaus Seiten, indexieren diese jedoch nicht. Dies kann unterschiedlichste Gründe haben, unter anderem eine schlechte Suchmaschinenoptimierung. Um die Relevanz der Inhalte zu verbessern, sollten jedoch nur die Inhalte crawlbar gemacht werden, die unbedingt durch die Suchmaschinen verarbeitet werden sollen. Unwichtige Seiten, wie Suchergebnisseiten oder das Impressum sollten daher vom Crawling ausgeschlossen werden. Hier spricht man von der Optimierung des sogenannten Crawl-Budgets. Dieses legt fest, wie viele Seiten einer Webseite gecrawlt werden können und wird von Suchmaschinen individuell für jede Domain festgelegt. In diesem Zusammenhang gibt es eine wichtige Unterscheidung: Crawling ist nicht mit Indexierung gleichzusetzen! Nutzen Sie für die Steuerung des Crawlings das Meta Tag „robots“ sowie die „robots.txt“ Datei . Bei der „robots.txt“ gilt es jedoch zu beachten, dass die enthaltenen Anweisungen nur eine Empfehlung für die Suchmaschinen darstellen und nachweislich durchaus ignoriert werden. Darüber hinaus können Suchmaschinen auch über andere Wege auf dort ausgeschlossene Seiten gelangen, z.B. durch Backlinks. Die Nutzung der „Disallow“ Funktion ist daher kein zuverlässiger Weg, Seiten vom Crawling auszuschließen. Im Gegenteil, wird die robots.txt falsch verwendet, kann dies zu großen Problemen auf Suchergebnisseiten führen, wie Abbildung 1 zeigt. Abbildung 1: Von Google indexierte Webseiten, für die keine Beschreibungen angezeigt werden können, weil sie in der robots.txt vom Crawling ausgeschlossen sind. Im Mai 2019 hat Google den hauseigenen Google Crawler auf die aktuelle Chromium-Version 74 geupdatet. Dies ist ein wichtiger Hinweis, da der Vorgänger veraltet war und nur wenige moderne Web-Technologien unterstützte. Der neue Crawler kann nun moderne SEO Optimierung erkennen und bessere Onpage Analysen durchführen. JETZT NEWSLETTER ABONNIEREN URL-Struktur, interne Verlinkung und sitemap.xml sind wichtige SEO Onpage Faktoren Als nächstes müssen Sie die URL-Struktur Ihrer Webseite überprüfen. Fragestellungen sind: Ist diese leserlich und für Menschen klar verständlich? Können User daraus ablesen, wo sie sich auf der Webseite befinden? Ist sie nicht zu lang? Die URL-Struktur sollte nicht über 5 Hierarchiestufen hinaus gehen. Dies geht auch mit der Webseitenstruktur einher. Heutiges Onpage SEO ist keine Optimierung für Suchmaschinen, sondern für User. Das bedeutet, dass Inhalte leicht und schnell zugänglich sein müssen. Eine zu starke Kaskadierung der einzelnen Webseiten ist daher nicht ratsam, weil sie ausschließlich zu mehr Hierarchien führt. John Müller, Webmaster Trends Analyst bei Google, gab am 03.05.2019 per Webmaster-Hangout bekannt, dass die interne Verlinkung von Seiten noch stärker zu gewichten ist, als die URL-Struktur. Die sichtbaren URLs sind primär für die User Experience relevant. Die interne Verlinkung von Seiten muss stattdessen themenrelevant passieren, um eine gute Onpage Optimierung zu erreichen. Es wird in diesem Zusammenhang auch von Siloing gesprochen. Für eine gute interne Verlinkung müssen Sie sicherstellen, dass nur innerhalb eines Themas (Silo) verlinkt wird. So sollten z. B. alle Artikel zum Thema Webanalyse untereinander, aber nicht auf Artikel zum Thema SEO verlinken. Hierfür sollten Sie immer ein Verlinkungskonzept erarbeiten und gerade bei Links mit JavaScript-Funktionalität überprüfen, ob Crawler die Links finden und ihnen folgen. Sofern Sie ähnliche Inhalte haben, sollten Sie das canonical Tag nutzen. Stellen Sie sich vor, Sie betreiben einen Online Shop und bieten ein T-Shirt in fünf Farben an. Für jede dieser Farbvarianten bieten sie eine eigene Seite mit individueller URL. In diesem Fall hätten Sie Duplicate Content auf der Domain, weil alle Seite textlich identisch wären und sich nur durch die Farbangabe unterscheiden würden. Mit dem canonical Tag können Sie nun auf allen Seiten einen Hinweis geben, welche der fünf URLs tatsächlich für Suchmaschinen relevant ist und welche ausschließlich als Mehrwert für den Nutzer dienen. Darüber hinaus sollten Sie Suchmaschinen mit der sitemap.xml Datei eine Datei an die Hand geben, welche alle URLs auflistet, die indexiert werden sollen. Daher darf diese Datei keine URLs beinhalten, die auf „noindex“ stehen oder anderweitig von dem Crawling oder der Indexierung ausgeschlossen werden. Duplicate Content vermeiden mit SEO Onpage Das Thema Duplicate Content oder doppelte Inhalte ist einer der größten Schwerpunkte bei SEO Onpage Optimierung. Häufig sind dieselben Seiten unter mehreren URLs erreichbar. Klassische Beispiele sind: URL mit http und https URL mit www und ohne www URL mit Trailing Slash und ohne URL mit sehr ähnlichen Inhalten Aus diesem Grund ist es unerlässlich Weiterleitungen einzurichten und via canonical Tag und sitemap.xml den Suchmaschinen sehr genau zu kommunizieren, welche Webseiten wirklich indexiert werden sollen. Stellen Sie sich vor, Sie betreiben einen Online Shop und bieten ein T-Shirt in fünf Farben an. Für jede dieser Farbvarianten erstellen Sie eine eigene Seite mit individueller URL. In diesem Fall haben Sie Duplicate Content auf der Domain, weil alle Seite textlich identisch sind und sich nur durch die Farbangabe unterscheiden. Mit dem Canonical Tag können Sie auf allen Seiten einen Hinweis geben, welche der fünf URLs tatsächlich für Suchmaschinen relevant ist und welche Seiten ausschließlich als Mehrwert für den Nutzer dienen. Bei einer Weiterleitung wird der User beim Aufruf einer URL mit http automatisch auf die Variante mit https weitergeleitet. Dies passiert so schnell, dass er dies häufig gar nicht bemerkt. Pagespeed – wie schnell lädt Ihre Webseite? Bereits seit mehreren Jahren verzeichnet Google mehr Zugriffe über mobile Endgeräte als über Desktop Geräte. Es ist entsprechend wichtig, eine schnell ladende Webseite anzubieten . Dies können Sie auf mehrere Arten umsetzen: Sie sorgen für kleine Dateigrößen und kurze Quellcodes. Dies optimiert die Webseite insgesamt und sorgt für ein gutes Nutzererlebnis. Sie optimieren die sichtbaren Inhalte durch eine priorisierte Auslieferung des Quellcodes . Mit dieser Maßnahme sieht der User die ersten Inhalte im sichtbaren Bereich lange bevor die gesamte Webseite geladen wurde. Dies verbessert die gefühlte Ladezeit. Sie stellen das Hypertext Transfer Protocoll (http) auf Variante 2 (http/2) um. Diese ist für mobile Geräte optimiert und ermöglicht paralleles Laden diverser Dateien, sowie Vorladen von Inhalten. Wir empfehlen darüber hinaus die Nutzung von https für ein gutes Onpage SEO. Abbildung 2 zeigt den Google Page Speed Test, der genau diese Thematiken untersucht: Abbildung 2: Mit dem Google Page Speed Test sehen Sie welche Dateien zu groß sind und welche Dateien eine optimierte Auslieferung der sichtbaren Inhalte verzögern. Mobile Optimierung wird immer wichtiger Neben der Ladezeit muss auch die Darstellung der Webseite auf mobilen Geräten sichergestellt werden. Häufig wird dies mit einem responsiven Design bewerkstelligt, welches sicherstellt, dass sich die Webseite automatisch der Bildschirmgröße von mobilen Endgeräten anpasst. Planen Sie in der nächsten Zeit einen Relaunch, müssen Sie dieses Thema unbedingt in Ihrem Konzept berücksichtigen. Strukturierte Daten für gutes Onsite Marketing Mit strukturierten Daten werden einzelne Inhalte gezielt für Suchmaschinen ausgezeichnet. Dabei kann es sich um Unternehmensinformationen, Produktinformationen, Rezepte, Veranstaltungen oder seit neuestem FAQs handeln. Insgesamt gibt es sehr viele Vorlagen für die Verwendung von strukturierten Daten auf einer Webseite, allerdings werden nur verhältnismäßig wenige bei der Google Optimierung unterstützt. Der Mehrwert liegt darin, dass Google die Inhalte besser versteht und getrennt auf der Suchergebnisseite darstellt. Weitere SEO Onpage Optimierungen In den Bereich technisches SEO gehören noch weitere Maßnahmen wie Progressive Web Apps, Bildauszeichnungen oder Mehrsprachigkeit. Hierbei handelt es sich um das „Fine-Tuning“ im Bereich technischer SEO Optimierung. Daher werden diese detaillierten Themen hier nicht weiter ausgeführt. Content Optimierung – der zweite Schritt im Onpage SEO Nachdem die Webseite unter technischen Onpage SEO Maßnahmen verbessert wurde, können Sie nun mit der Optimierung Ihrer Inhalte beginnen. Diese gliedert sich im Wesentlichen in zwei Bereiche auf: Meta Angaben: Page Title und Meta Description optimieren Die Optimierung des Seitentitels und der Meta Description bezeichnet im Onpage SEO die Optimierung der Meta Angaben. Der Seitentitel als SEO Kriterium ist dabei besonders entscheidend, da in ihm das Keyword und die Brand enthalten sein sollten. Gleichzeitig sollte er nicht zu lang sein, um leserlich zu bleiben. Sie sehen den Seitentitel immer im Tab Ihres Browsers sowie auf der Suchergebnisseite von Google. Die Meta Description ist an sich nicht SEO relevant, hat aber dennoch eine große, indirekte Auswirkung auf das Onsite Marketing. Die Meta Description wird, sofern inhaltlich passend, auf den Suchergebnisseiten der Suchmaschinen angezeigt. Durch eine direkte Ansprache der User mit Handlungsaufforderung können Sie die Klickrate auf Ihre Treffer verbessern und auf diese Weise zu einem besseren Ranking gelangen. Abbildung 3: Suchergebnisse in Google mit dem Seitentitel in Blau und der Meta Description in Schwarz. Inhalte auf der Seite selbst – was kann der Nutzer erwarten? Die eigentlichen Inhalte müssen den Erwartungen der User entsprechen, da sie ansonsten zu hohen Absprungraten führen. Beachten Sie, dass Sie die Inhalte im Rahmen der Onpage Optimierung nicht für Suchmaschinen, sondern für User erstellen. Aus diesem Grund legt Google großen Wert darauf, wie leserlich die Inhalte sind. Im Weiteren müssen die Texte gut strukturiert und mit Überschriften gegliedert sein. Eine Steigerung der Interaktion der User mit der Webseite ist darüber hinaus wünschenswert. Dies können Sie durch Videos, Bilder, Bildergalerien, Kommentare oder ähnliches erreichen. Es ist nachgewiesen, dass eine längere Verweildauer mit dem Anstieg an Conversions einhergeht. Sind die Inhalte sehr gut erstellt, verwendet Google sie gegebenenfalls als Featured Snippet. Hierbei handelt es sich auf der Suchergebnisseite um die Position 0, bei der Google die Frage eines Users direkt auf der Suchergebnisseite beantwortet. Auf die Verwendung eines Feature Snippets haben Marketer keinen Einfluss und können entsprechend nicht vorhersagen, wann ein Snippet angezeigt wird und wann nicht. Die eigenen Inhalte in einem Featured Snippet unterzubringen gilt daher als Königsdisziplin der Google Optimierung für Inhalte. Abbildung 4: Darstellung eines Featured Snippets auf der Suchergebnisseite von Google. Google Jobs – eine ganz neue Funktion Mit Google Jobs hat der Suchmaschinenriese im Juni 2019 eine ganz neue Funktion in Deutschland eingeführt, die 2019 zu vielen Onpage SEO Optimierungen führen wird. Sobald User nach einer Berufsbezeichnung googlen, wird ihnen eine Liste an freien Stellenangeboten angezeigt. Nach einem Klick darauf werden sie direkt zur Seite des Unternehmens weitergeleitet, wo sie sich im nächsten Schritt bewerben können. Hierfür müssen Webseitenbetreiber jedoch strukturierte Daten nutzen und ganz gezielte Inhalte auf der Webseite verwenden. Was wir für Sie tun können Wenn Sie Ihre Positionen in den Suchmaschinen Rankings und dadurch Ihre Anzahl an Conversions verbessern möchten, bieten wir Ihnen eine umfassende Betreuung im Bereich OnPage Optimierung an. Unsere Onpage SEO Maßnahmen gehen dabei in Abstimmung mit anderen Online Marketing Maßnahmen einher. Sprechen Sie uns einfach an, wir freuen uns über Ihre Anfrage.

Opt-In, Erste Erkenntnisse aus der Praxis

28.06.2018

Thorsten

Abrahamczik

Kategorie:

Webanalyse

Opt-In – Auswirkungen auf das Online Marketing durch die EU Cookie Richtlinie Im Rahmen der neuen Datenschutzgrundverordnung (DSGVO) sind bei vielen Marketern große Unklarheiten hinsichtlich der EU Cookie Richtlinie und der Opt In und Opt Out Verfahren entstanden. Hinzukommt die Unsicherheit in Bezug auf die E-Privacy-Regelung, welche voraussichtlich 2019 verpflichtend wird. Im Rahmen unseres Artikels "Kein Google Analytics ohne Google Analytics Opt-Out Cookie" sind wir bereits auf die Notwendigkeit eines Google Analytics Opt-Out Cookies auf der Datenschutzseite eingegangen. In diesem Artikel möchten wir das Opt In Verfahren erläutern, welches die explizite Zustimmung des Users für Analyse- und Marketing-Maßnahmen erfordert. Ebenfalls zeigen wir anschaulich, wie sich das Verfahren auf alle Online Marketing Kanäle und Maßnahmen auswirkt. Was ist das Opt-In Verfahren? Das Opt-In Verfahren basiert auf dem immer populärer werdenden Cookie Hinweis, der die Verwendung von Cookies auf Webseiten erwähnt. Wie in Bild 1 und Bild 2 zu sehen, wurden die Formulierungen zum 25.05.2018 in vielen Fällen überarbeitet und um weitere Informationen zur Cookie-Nutzung ergänzt. Abb. 1  Alter Cookie-Hinweis, wie er auf vor der DSGVO verwendet wurde. Abb.2 Aktueller Hinweis, bei dem Sie sich als Nutzer vom Tracking ausschließen können. Seit dieser Überarbeitung haben viele Nutzer die Möglichkeit, auf einzelnen Webseiten der Cookie-Nutzung zuzustimmen oder sie abzulehnen. Sobald die User hier eine Entscheidung getroffen haben, muss die Cookie-Nutzung, neben einzelnen Ausnahmen wie Session-Cookies, auf der gesamten Domain berücksichtigt werden. Viele Rechtsanwälte und Datenschutzbeauftragte interpretieren die DSGVO jedoch unterschiedlich, weshalb Nutzer gegenwärtig verschiedenste Lösungen angeboten bekommen. Diese reichen von einfachen Cookie Bannern ohne Auswahlmöglichkeit, bis hin zu Opt-In Verfahren. Die Auswirkungen des Opt-Out Verfahrens sind bereits bekannt. Mit dem Opt-In Verfahren haben jedoch nur die allerwenigsten Unternehmen Erfahrung. Aus diesem Grund haben wir das Opt In Verfahren im Rahmen der DSGVO Cookies getestet, um erste Erkenntnisse zu sammeln, die wir bei späteren Umsetzungen berücksichtigen können. Abgrenzung Opt-In zu Double Opt-In Bevor wir mit der Umsetzung und den Auswirkungen auf den Traffic beginnen, müssen wir jedoch eine Abgrenzung von Opt In zu Double Opt In vornehmen: Opt In: Hierbei wird dem Nutzer ein Banner beim Zugriff auf die Webseite angezeigt, dass ihn über die Nutzung von Cookies und gegebenenfalls über deren Verwendungszwecke informiert. Der Nutzer muss darüber hinaus der Nutzung von Cookies explizit zustimmen, bevor Webanalyse- und Marketing-Maßnahmen durchgeführt werden dürfen. Tut er dies nicht, dürfen beide Instrumente nicht genutzt werden. Double Opt In: Dieses Verfahren wird primär im Rahmen des E-Mail-Marketings genutzt. Sobald der Nutzer sich für einen Newsletter anmeldet, erhält er eine Bestätigungs-E-Mail, mit der er der Newsletter-Nutzung explizit zustimmen muss. Wie Sie sehen, stehen beide Verfahren voneinander losgelöst und haben nichts miteinander zu tun. Trafficveränderungen durch den Einbau des Opt-In Im Rahmen unserer Opt-In Untersuchung haben wir auf 10 Webseiten die Traffic-Entwicklung in Google Analytics vor und nach dem Einbau des Opt-In untersucht. Der Google Analytics Screenshot auf Bild 3 zeigt die Sitzungsanzahl einer Webseite auf Tagesbasis, vor und nach dem Einbau des Opt-In. Abb. 3 Die Traffic-Entwicklung vom 24.05.2018 bis 21.06.2018. Der Opt-In wurde am 08.06.2018 eingebaut. Vergleicht man den Zeitraum nach dem Einbau mit dem Zeitraum vor dem Einbau und lässt den Tag des Einbaus aus, ergeben sich folgende Traffic-Veränderungen: Abb. 4 Vergleich der Entwicklungen in Google Analytics in den Zeiträumen 09.06.2018 – 15.06.2018 und 01.06.2018 – 07.06.2018 Andere Webseiten mit ca. 5.000 Sitzungen am Tag weisen sogar Abweichungen von 83% - 85% auf. Nur wenige Webseiten haben eine geringere Abweichung als in den hier gezeigten Screenshots. Konfiguration des Opt-In mit einer Schritt für Schritt Anleitung Damit Sie verstehen, wie das gesamte Verfahren funktioniert, möchten wir Ihnen eine genaue Schritt für Schritt Erklärung geben. Ebenfalls bieten wir Ihnen am Ende des Artikels die Möglichkeit, unsere Konfiguration des Google Tag Manager Containers zu downloaden damit Sie diesen in Ihren Google Tag Manager importieren und mit der Umsetzung Erfahrungen sammeln können. DSGVO Cookie Hinweis auf der Webseite Als zwingende Voraussetzung benötigen Sie ein Cookie Banner auf Ihrer Webseite, dass die User über die Verwendung von Cookies hinweist und ihnen die Möglichkeit bietet, Analyse- und Werbe-Cookies zu aktivieren oder diese deaktiviert zu lassen. Der Einfachheit halber nutzen wir für unseren Versuch das populäre Angebot Consent von Insites . Dieses Skript haben wir auch auf unserer Webseite eingebunden.Über den Menüpunkt Download können Sie sich ein Banner konfigurieren, das Sie im Anschluss nur noch in den Quellcode Ihrer Webseite kopieren müssen. Während dieses Prozesses müssen Sie sich entscheiden, ob Sie das Opt In oder Opt Out Verfahren nutzen möchten. Wir nutzen in unserem jetzigen Szenario den Cookie Hinweis für das Opt In. Anschließend wird Ihnen das Banner direkt angezeigt. Die Umsetzung ist daher auch für technisch weniger versierte Menschen sehr leicht vorzunehmen. Speicherung der Nutzer-Entscheidung in einem Cookie Sobald Sie das Banner auf Ihrer Webseite eingebunden haben, wird es allen Nutzern angezeigt. Jedoch passiert erst einmal nichts weiter, es werden noch keine Cookies blockiert. Insites selbst nutzt ein Cookie mit dem Namen „cookieconsent_status“, um die Entscheidung des Users zu speichern und ihm beim nächsten Zugriff das Banner nicht erneut anzuzeigen. Diese Entscheidung ist für ein Jahr gültig. Auf Bild 5 sehen Sie die Werte des Cookies: „allow“ bei Zustimmung „dismiss“ bei Ablehnung Ebenfalls erfahren Sie das Ablaufdatum des Cookies, ab dem der Browser das Cookie nicht mehr berücksichtigt. Die Werte „allow“ und „dismiss“ können wir mit dem Google Tag Manager auslesen und für das Auslösen von Google Analytics, Google AdWords, Affiliate etc. berücksichtigen. Die Entscheidung eines Opt-In darf sich nämlich nicht nur auf die Webanalyse mittels Google Analytics, Etracker, Webtrekk etc. beschränken. Es muss auch sämtliches Remarketing und Conversion Tracking von anderen Anbietern berücksichtigt werden. Abb. 5: Status des „cookieconsent_status“ Cookies für den Opt-In Berücksichtigung von Do Not Track Nach der Berücksichtigung der DSGVO Cookie Entscheidung durch den User, möchten wir eine zweite Möglichkeit der Ablehnung von Analyse- und Werbe-Cookies berücksichtigen. Hierbei handelt es sich um das Do Not Track Verfahren . In diesem Fall sendet der Browser bei jedem neuen Seitenaufruf eine Information an den Server, dass für den Nutzer kein Nutzerprofil erstellt und eigene Aktivitäten nicht verfolgt werden sollen. Bild 6 zeigt die Einstellung im Bereich „Datenschutz & Sicherheit“ von Firefox. Abb. 6: Aktivierung der „Do Not Track“ Information im Bereich Datenschutz von Firefox Do Not Track ist in allen relevanten Browsern wie Google Chrome, Mozilla Firefox, Apple Safari etc. integriert, jedoch standardmäßig deaktiviert. Der Anwender muss daher eine bewusste Entscheidung treffen und Do Not Track händisch aktivieren. Tut er dies, sollten Webseiten-Betreiber diese Entscheidung respektieren, wenn sie das Opt-In Verfahren anbieten. Zusammenspiel der einzelnen Konfigurationen im Google Tag Manager Um das Opt-In im Google Tag Manager zu konfigurieren und DSGVO relevante Cookies zu berücksichtigen, haben wir folgende Regeln definiert: Hat der User der Cookie Nutzung für das Opt-In explizit zugestimmt? Wenn ja, überprüfen wir, ob der Nutzer Do Not Track aktiviert hat Wenn nein, lassen wir sämtliches Tracking deaktiviert Hat der Nutzer Do Not Track aktiviert Wenn ja, lassen wir sämtliches Tracking deaktiviert. Diese Regel überschreibt auch die vorherige Regel, wenn der Nutzer dem Tracking auf dem Banner zugestimmt hat Wenn nein, überprüfen wir, ob der Nutzer der Cookie Nutzung zugestimmt hat. Nur wenn beide Voraussetzungen erfüllt sind, werden die Analyse- und Werbe-Cookies aktiviert Der Nutzer hat der Cookie-Nutzung zugestimmt Der Nutzer hat Do Not Track deaktiviert Weicht nur ein Wert hiervon ab, werden die Cookies weiterhin blockiert. Auf diese Weise bietet der Webseiten-Betreiber seinen Nutzern den maximalen Schutz vor der Erfassung durch Cookies. Am Anfang des Artikels haben wir gezeigt, dass diese Einstellung im Google Tag Manager zu starken Traffic-Einbußen in Google Analytics geführt hat. Da aber auch sämtliches Remarketing- und Conversion-Tracking blockiert wird, können Webseiten-Betreiber ihre Nutzer nicht mehr markieren und parallel wesentlich weniger Erfolgsmessungen durchführen. Messung der Do Not Track Nutzung auf einer anderen Webseite Gegenwärtig gibt es, laut unserem nicht rechtsverbindlichen Verständnis, keine Pflicht, das Opt-In Tracking zu nutzen. Dies kann sich jedoch mit der E-Privacy-Regelung 2019 ändern. Unabhängig davon ist uns nicht bewusst, dass die Do Not Track Funktion eine verpflichtende Maßnahme für Webseiten-Betreiber darstellt. Aus diesem Grund haben wir bei einer elften Seite die Nutzung von Do Not Track analysiert. Diese Seite dient der Familienunterhaltung und zeichnet sich durch einen hohen nationalen wie auch internationalen Traffic aus. Ebenso bedient sie beide Geschlechter und Altersgruppen von Kleinkindern bis Urgroßeltern. Wir sehen diese Zahlen daher als guten Durchschnitt durch die Gesellschaft an. In Bild 7 haben wir die Anzahl an Sitzungen sowie die Zugriffe bei aktiviertem Do Not Track nebeneinander gestellt. Für die Messung des aktivierten Do Not Track nutzen wir in Google Analytics die „Einmaligen Ereignisse“, da dieser Wert „sitzungsbasiert“ ist und somit eine vergleichbare Datenbasis darstellt. Abb.7: Bei 10% aller Sitzungen ist Do Not Track im Zeitraum 13.06.2018 – 20.06.2018 aktiviert Der Zeitraum der Erhebung ist der 13.06.2018 – 20.06.2018. Es ist deutlich zu sehen, dass bei 10% aller Sitzungen Do Not Track aktiviert ist. Hier haben User die ganz bewusste Entscheidung getroffen, nicht verfolgt werden zu wollen. Learnings aus dem Test Für uns sind dies sehr wertvolle und wichtige Erkenntnisse. Das Opt In Verfahren reduziert die Kennzahlen in den Auswertungs- und Marketing-Tools deutlich und macht es erheblich schwerer Nutzer zu erfassen. Sollte die Nutzung des Opt-In verpflichtend werden, müssten andere Methoden entwickelt werden, um das Online Marketing weiterhin in derselben Qualität anbieten zu können. Möchten Sie als Webseiten-Betreiber eine Entscheidung zwischen Opt In oder Opt Out treffen, kennen Sie nun die Vor- und Nachteile. Sehr gerne bieten wir Ihnen auch unsere Konfiguration des Google Tag Managers Containers zum Download an. Füllen Sie hierzu das folgende Formular aus und wir lassen Ihnen den Link zum Download per E-Mail zukommen. Die .zip Datei können Sie einfach öffnen und finden dort eine .json Datei. Wenn Sie sich in Ihrem Google Tag Manager befinden, klicken Sie auf „Verwaltung“ und dort auf „Container importieren“. Im Anschluss wählen Sie die .json Datei aus und importieren diese in Ihren Google Tag Manager Container. Dort finden Sie dann alle von uns erstellten Vorlagen. Es wird spannend sein, wie sich die E-Privacy Regelung auf die EU Cookie Richtlinie auswirkt und wie Nutzer von der Möglichkeit des Opt In Gebrauch machen Was können wir für Sie tun? Wenn Sie sich unsicher sind, ob Sie das Opt-In Tracking benötigen oder wenn Sie Schwierigkeiten bei der Umsetzung des Opt-In oder Opt-Out Verfahrens haben, stehen wir Ihnen gerne helfend zur Seite. Wir unterstützen Sie bei der Umsetzung Ihrer Online Marketing Maßnahmen und können schnell technische Anpassungen an Ihrer Webseite vornehmen, sollte die neue E-Privacy Regelung dies nötig machen.

Frühzeitige Konfiguration des Google Tag Manager mit dem Tag Manager Injector

31.08.2017

Thorsten

Abrahamczik

Kategorie:

Webanalyse

Der Tag Manager Injector, als Chrome Browser-Plugin, ermöglicht die leichte Einrichtung des Google Tag Managers innerhalb von Google Chrome. Ohne lange Wartezeiten können wir auf diese Weise mit der Betreuung unserer Kunden beginnen und sind nicht zum Warten gezwungen. Die IT des Kunden kann sich indes Zeit lassen, bei der Implementierung des Tag Manager Codes in den Quellcode der Webseite. Zu Beginn der Zusammenarbeit sprechen wir uns eng mit unseren Kunden ab, um jeweils zugeschnittene Tracking Konzepte zu erstellen. Zu diesem Zeitpunkt ist häufig noch nicht klar, was überhaupt erfasst werden soll und welche Kennzahlen für den Kunden einen Mehrwert bieten. Nachdem das Tracking Konzept finalisiert und vom Kunden abgenommen ist, beginnen wir mit der Umsetzung der Implementierung. Hierfür muss als erstes der Codes des Google Tag Managers in den Quellcode der Seite mit eingebaut werden. In der Regel kann dies jedoch mehrere Tage dauern, da die IT des Kunden die Implementierung oft nicht sofort umsetzen kann. Um in dieser Zeit dennoch mit der Konfiguration beginnen zu können, setzen wir das Chrome Browser Plugin Tag Manager Injector ein. Dadurch ist man wesentlich unabhängiger von der IT des Kundens und kann schneller arbeiten. Voraussetzungen zur Nutzung des Tag Manager Injectors Um den Tag Manager Injector nutzen zu können, muss zunächst ein Konto im Google Tag Manager angelegt werden. Innerhalb dieses Kontos muss dann ein Container erstellt werden. Im Anschluss gibt der Google Tag Manager den einzubauenden Code für den Container frei, welcher dann von der IT einzubauen ist. Zu diesem Zeitpunkt können wir bereits anfangen den Tag Manager Injector zu nutzen, um den gerade erstellten Container zu konfigurieren. Wichtig ist in diesem Zusammenhang die einmalige Container-ID, welche genau diesen Container identifiziert. Abb. 1: Der im Google Tag Manager erstellte Container mit der Container-ID Nutzung des Tag Manager Injectors Nachdem dieser Vorgang abgeschlossen ist, geht man in den neu erstellten Container und erstellt die ersten Tags, Trigger und Variablen. An dieser Stelle kann der Container bereits so konfiguriert werden, wie er später eingesetzt werden soll. Hierbei gibt es auch keine Beschränkungen, da Drittanbieter Tags genauso genutzt werden können, wie Skripte. Nach dem Einrichten der ersten Tags sollte, der Vorschaumodus des Google Tag Managers aktiviert werden. Auf diese Weise kann überprüft werden, ob die Tags korrekt konfiguriert wurden. Im nächsten Schritt muss das Plugin installiert werden. Sobald das Plugin aktiv ist, kann es genutzt werden. Hierfür klickt man auf das Plugin selbst und erhält eine einfache Eingabemaske, in die man die Container-ID des zuvor erstellten Containers einträgt. Als nächstes muss unter dem Punkt „Include Domain(s)“ die Domain eingetragen werden, auf der der Google Tag Manager Container genutzt werden soll. Danach muss nur noch der Button „Start“ geklickt werden. Sobald der Tag Manager Injector aktiv ist, färbt sich der obere Bereich bei der GTM Container ID grün ein. Abb. 2: Der konfigurierte und nutzbare Tag Manager Injector Durch die Aktivierung des Vorschaumodus im Container öffnet sich nun auf der Webseite das ganz normale Vorschaufenster des Google Tag Manager im Browser. Nun ist leicht zu sehen, welche Tags auslösen, welche Variablen-Werte ausgegeben werden und wie der Data Layer aussieht. Möchte man explizite Werte an den Data Layer pushen, bietet der Tag Manager Injector hierfür das deutlich sichtbare Eingabefeld „Push to the data Layer“ an. Hier müssen nur die entsprechenden Angaben eingetragen werden und schon werden die Daten übermittelt. Abb. 3: Das Vorschaufenster des Google Tag Manager im Browser Im Echtzeit Bericht von Google Analytics sind nun erste Zugriffe zu sehen, die zeigen, dass das Google Analytics Tracking funktioniert. Wie können wir Ihnen helfen? Sie möchten Webanalyse auf Ihrer Seite nach den Vorgaben eines definierten Tracking Konzeptes einbauen, sind sich aber unsicher wie Sie dies genau umsetzen? Sie möchten zielgerichteter Conversions messen und steigern, haben aber Probleme bei der Umsetzung des zusätzlichen Trackings? Sprechen Sie uns an und wir helfen Ihnen gerne, Ihre Webanalyse zu verbessern.

Record-Einträge einer Domain-Verwaltung und was Sie bei Anpassungen beachten müssen

22.06.2017

Thorsten

Abrahamczik

Kategorie:

SEO

Als Webseitenbetreiber müssen Sie sich auch mit der Verwaltung Ihrer Domain beschäftigen. Hierbei handelt es sich nicht nur um den Kauf einer Domain, sondern auch um die Konfiguration für Webserver und E-Mailserver. Hauptsächlich betrifft dies größere Unternehmen oder Agenturen, die Domains auf separaten Servern verwalten, welche von den eigentlichen Web- oder E-Mailservern betrieben werden. Ein Beispiel für ein solches Szenario sind Anbieter wie NICdirekt oder 1Blu, bei denen Domains gekauft und verwaltet werden und die sich auf das Hosting von Großunternehmen spezialisiert haben. Aber auch normale Webhoster wie Mittwald, Webgo, Host Europe etc. bieten in Teilen eine Konfiguration der Domain an. Abb.1: Record-Einträge für eine Domain der internetwarriors GmbH Die Konfiguration des Domain Name System Bei dem Domain Name System, häufig abgekürzt als DNS, handelt es sich um einen der wichtigsten Dienste im Internet. Sogenannte DNS-Server kümmern sich darum, dass die URL-Bezeichnungen in IP-Adressen umgewandelt werden. Tippen Sie eine URL in den Browser ein, können Server im Internet zunächst einmal damit nichts anfangen, weil sie IP-Adressen nutzen, um sich zu identifizieren. Bei einer IP-Adresse handelt es sich um eine Zahlenkombination, die einmalig ist und individuell für jedes Gerät im Internet vergeben wird. Am einfachsten ist dies mit einer Telefonnummer zu vergleichen, die für jeden Telefonanschluss vergeben wird. Damit der Browser weiß, welcher Server eine Webseite (im Browser eingetippte URL) angefragt hat, schickt er zunächst eine Anfrage an einen DNS-Server. Dieser hält eine große Datenbank bereit, in der für jede Domain die IP-Adresse des entsprechenden Servers hinterlegt ist. Ähnlich zu einem Telefonbuch, bei dem zu jedem Namen die Telefonnummer eingetragen ist. Als Antwort auf die Anfrage schickt der DNS-Server die IP-Adresse des entsprechenden Servers für die Webseite an den Browser zurück. Dieser kann die Anfrage für die Webseite nun direkt an den eigentlichen Weberver stellen. Typen von Record-Einträgen Damit der DNS-Server weiß, welche IP-Adresse hinter einer URL liegt, muss dies in der Domain Konfiguration eingestellt werden. Dabei gibt es verschiedene sogenannte Record-Einträge für verschiedene Dienste. Die wichtigsten sind: NS A AAAA MX Name Server Record - NS Der Name Server Record, häufig als NS bezeichnet, kümmert sich um die Namensauflösung. Hierbei wird der Name von Diensten, z.B. Domains, in von Computern bearbeitbare Adressen aufgelöst. Bei diesen Adressen handelt es sich um die sogenannten IP-Adressen. Jeder der Einträge besitzt eine sogenannte TTL (Time to live). Diese legt fest, wie lange ein Eintrag im Zwischenspeicher (Cache) gültig bleibt, bevor er erneuert wird. In der Regel liegt dieser Wert bei 86400 Sekunden, was 24 Stunden bedeutet. Der Umzug einer Domain auf einen neuen Webserver dauert entsprechend 24 Stunden, weil sich erst alle weltweiten DNS-Server aktualisieren müssen, bevor den Browsern die korrekte IP-Adresse ausgeliefert wird. Address Record - A Der Address Record oder auch A Resource Record stellt sicher, dass bei einem DNS-Server dem Eintrag eine IPv4 Adresse zugeordnet wird. Bei IPv4 Adressen handelt es sich um IP-Adressen, die auf einem vier Oktettensystem beruht. Dieses ist in der Menge der möglichen IP-Adressen stark limitiert und kann nicht mehr die benötigten IP-Adressen für alle mit dem Internet verbundenen Geräte, z.B. Computern, Smartphones, Servern etc., abdecken. Dennoch ist es auch heute noch sehr verbreitet. Address Record - AAAA Bei dem Address Record AAAA handelt es sich im Wesentlichen um dieselbe Funktionalität wie bei dem Address Record A. Allerdings basiert diese Funktionalität auf dem sogenannten IPv6 Adresssystem, welches den Nachfolger von IPv4 darstellt. Es bietet deutlich mehr IP-Adressen und kann daher eine weitaus größere Anzahl an IP-Adressen und DNS-Einträgen abdecken. Mail eXchange Record - MX Ein MX Resource Record beschreibt, unter welcher Domain der entsprechende E-Mailserver zu erreichen ist. Über diesen können E-Mailprogramme ihre E-Mails versenden und empfangen. Wichtig zu wissen ist, dass dieser Eintrag immer eine voll ausgeschriebene URL beinhalten muss. Was wir für Sie tun können? Durch unsere langjährige Erfahrung in den Bereichen Webhosting und Domainverwaltung beraten wir Sie gerne in der Betreuung Ihrer Webseite. Nehmen Sie mit uns Kontakt auf, wenn Sie sich um die technische Betreuung Ihrer Webseite nicht kümmern möchten oder einen Relaunch planen. Sehr gerne sprechen wir gemeinsam mit Ihnen über Ihre individuelle Betreuung.

A/B-Testing mit Google Optimize

11.05.2017

Thorsten

Abrahamczik

Kategorie:

Webanalyse

Mit Google Optimize hat der Suchmaschinen-Anbieter ein neues Tool zur Durchführung von Experimenten auf Webseiten vorgestellt. Ursprünglich als Teil der Google 360 Grad Suite eingeführt, stellt Google das Programm inzwischen, mit wenigen Einschränkungen, auch als kostenlose Variante zur Verfügung. Somit können alle Marketer das Tool leicht für eigene Experimente nutzen. Abb. 1: Die Homepage von Google Optimize Neben A/B-Tests unterstützt das Programm auch Multivariate- sowie Weiterleitungs-Tests. Im Folgenden werden die unterschiedlichen Testtypen unterschieden: A/B-Testing: Hierbei werden einzelne Varianten derselben Webseite getestet. In der Regel unterscheiden sich die Varianten nur in kleinen Teilen, z.B. einer anderen Button-Farbe oder einem neuen Call to Action. Multivariate Tests: Diese Tests funktionieren ähnlich zu A/B-Tests, allerdings werden in diesem Fall mehrere Elemente einer Seite getestet, um die bestmögliche Kombination der Elemente herauszufinden. Gleichzeitig kann so die Interaktion der User zwischen den einzelnen Varianten besser untersucht werden, um eine Conversion Optimierung durchzuführen. Hierbei entsteht schnell eine deutlich größere Menge an Varianten. Weiterleistungstests: Bei diesen Tests werden separate Seiten mit eigenen URLs gegeneinander getestet. Auf diese Weise können gut unterschiedliche Varianten kompletter Seiten getestet werden. Erstellung eines Accounts und eines Containers in Google Optimize Um zu starten, müssen Anwender die URL Startseite von Google Optimize öffnen. Beim erstmaligen Öffnen sollen E-Mail Abos für (Tips & Recommendations, Product Announcements sowie Market Research) abgeschlossen werden, was aber auch verneint werden kann. Im nächsten Schritt muss der User einmalig seine Account Einstellungen konfigurieren. Abb. 2: Einmalige Konfiguration des Google Optimize Accounts Nachdem die Änderungen, wie in Abbildung 2 sichtbar, vorgenommen wurden, kann sofort mit der Erstellung eines Webseitentests begonnen werden. Für den User wird im nächsten Schritt sofort ein Konto und ein Container erstellt, in dem die Tests verwaltet und konfiguriert werden können. Der Aufbau ist hierbei identisch zu dem Google Tag Manager, der ebenfalls auf ein Konto mit einzelnen Containern setzt. Dies erleichtert die Bedienung spürbar. Starten Sie mit einem ersten Test Bevor Marketer mit der Erstellung eines Tests beginnen, müssen sie unbedingt berücksichtigen, dass die zu testende Webseite viele Zugriffe haben muss. Nur so können entsprechend valide Daten erhoben werden. Hat eine Webseite nur wenige Zugriffe im Monat, dauert die Auswertung eines Tests deutlich länger, um statistisch valide Tests zu erhalten. In diesem Fall sollten nur wenige Varianten getestet werden. Darüber hinaus sollten Marketer gerade am Anfang nur kleine Tests durchführen, z.B. das Ändern einer Buttonfarbe oder das Austauschen eines Textes. Hierdurch können sie den Umgang mit dem Tool lernen und genauer erfahren, wie sie sinnvolle und gute Tests aufbauen. Komplexere Tests können zu einem späteren Zeitpunkt erstellt werden. Um mit einem Test zu starten, muss der Anwender ein neues Experiment erstellen. Google bietet hierfür Vorlagen, in die der Anwender einen Namen für das Experiment, eine URL für die zu untersuchende Seite und die Art des Tests auswählen muss. Abbildung 3 zeigt den entsprechenden Bildschirm von Google Optimize. Abb. 3: Mit diesen Angaben kann ein Experiment in Google Optimize erstellt werden. Arbeiten Sie mit Varianten Sobald ein Experiment erstellt wurde, kann der Anwender sogenannte Varianten erstellen. Hierbei handelt es sich um leichte Abwandlungen innerhalb der Webseite. Unabhängig von der Anzahl der Varianten, wird jede Variante immer auch gegen die Originalversion der Webseite getestet. Der Marketer kann darüber hinaus an dieser Stelle festlegen, wie viele Prozente des Traffics an dem Test teilnehmen sollen und welche Variante wieviel Traffic erhalten soll. Standardmäßig nehmen 100% des Traffics an einem A/B-Test teil und dieser Traffic wird gleichmäßig auf alle Varianten verteilt. Gibt es also die Originalversion der Webseite und eine Variantenversion, erhalten beide Varianten 50% des Traffics. Abb. 4: Für jeden Test müssen ein Ziel und eine Hypothese festgelegt werden. p>Nachdem die Variante angelegt wurden, müssen für den Test Ziele und Beschreibungen hinterlegt werden. Beispiele für Testziele sind: Reduzierung der Absprungsrate Erhöhung der Anzahl der Seitenaufrufe Erhöhung der Anzahl der Transaktionen Im Anschluss müssen die einzelnen Varianten konfiguriert werden. Hierfür kommt ein visueller Editor zum Einsatz, mit dem der Marketer direkt sichtbare Änderungen an der Webseite vornehmen kann. Für kleine Änderungen sind keine Kenntnisse in HTML, CSS oder JavaScript notwendig. Bei komplexeren Änderungen mittels HTML, CSS oder JavaScript braucht es in jedem Fall ein generelles technisches Verständnis von HTML und CSS. Bei Änderungen von JavaScript sollten Programmierer hinzugezogen werden. Abb. 5: Google empfiehlt die Installation des Google Chrome Browser-Plugins für die Bedienung des visuellen Editors von Google Optimize. Um mit dem visuellen Editor arbeiten zu können, muss zunächst ein Browser-Plugin installiert werden. Google Chrome überprüft das Vorhandensein des Plugins und schlägt ansonsten, wie in Abbildung 5 sichtbar, die Installation vor. Sobald das Plugin installiert ist, kann der Anwender die Webseite öffnen und Anpassungen vornehmen. Die Abbildungen 6 - 10 zeigen, wie Anwender Anpassungen vornehmen können: Abb. 6: Mittels Mouse-Hover wählt der Anwender ein Webseiten-Element aus. Die einzelnen Elemente werden von Google Optimize direkt markiert und hervorgehoben. Abb. 7: Über den visuellen Editor am unteren rechten Bildschirmrand können dann Änderungen am ausgewählten Element vorgenommen werden. Abb. 8: Durch einen Klick auf „Edit Element“ im visuellen Editor können weitere Optionen ausgewählt werden, in diesem Fall „Edit text“. Abb. 9: Im Anschluss kann der Text der H1-Überschrift leicht abgeändert werden. Abb. 10: Die Leiste am oberen Bildschirmrand zeigt unter anderem in welchem Element sich der User befindet (H1), wie viele Änderungen vorgenommen wurden und wie die jeweilige Änderung auf unterschiedlichen Gerätearten wie Desktop, Tablet und Smartphone ausschaut. Sobald die gewünschten Änderungen vorgenommen und gespeichert wurden, muss unbedingt auf jedem Gerät das Aussehen und Verhalten der Änderungen überprüft werden. Schnell treten durch individuelle Programmierungen Fehler auf, die durch die erweiterten Überprüfungen vermieden werden können. Verknüpfung von Google Optimize mit Google Analytics Im nächsten Schritt muss Google Optimize mit Google Analytics verknüpft werden. Hierfür wählt der Anwender eine Datenansicht innerhalb der gewünschten Google Analytics Property aus. Die User Verhaltensdaten dieser Datenansicht werden dann für die Beurteilung des Tests herangezogen. Auf diese Weise lässt sich die Veränderung der Absprungspate, die Anzahl der Transaktionen etc. bei dem Experiment berücksichtigen. Einbau von Google Optimize über den Google Tag Manager Google empfiehlt in seinem Entwicklerbereich für Google Optimize, einen angepassten Google Analytics Code zu verwenden. Dieser lädt schneller und verhindert Bildschirmflickern durch die dynamisch vorgenommenen Anpassungen an der Webseite. Hierdurch sieht der User beim Seitenaufruf nicht, dass er eine andere Variante angezeigt bekommt. Selbstverständlich lässt sich Google Optimize aber auch über den Google Tag Manager einbauen. In diesem Fall sollte der Google Tag Manager Code so weit oben im Quelltest stehen, wie möglich. Dies ist notwendig, um ein mögliches Bildschirmflickern zu vermeiden. Die Reihenfolge der Ausführung der verschiedenen Codes bei einem Seitenaufruf sieht wie folgt aus: User ruft die Seite auf Google Tag Manager Code wird ausgeführt Google Optimize Code wird ausgeführt Google Analytics Code wird ausgeführt Durch die Verwendung des Google Tag Managers kommt es daher zu einer Verzögerung in der Ausführung, da Optimize erst ausgeführt werden kann, wenn der Tag Manager geladen und ausgeführt wurde. Bei der Verwendung eines angepassten Google Analytics Codes ist dies nicht der Fall und der Google Optimize Code kann sofort ausgeführt werden. Hierdurch kann auf Seiten mit vielen Bildern oder vielen zu ladenden Resourcen das erwähnte Bildschirmflickern reduziert oder ganz vermieden werden. Google Analytics darf in jedem Fall, unabhängig von der Verwendung des Google Tag Managers, erst ausgeführt werden, wenn der Google Optimize Code ausgeführt wurde. Eine entsprechende Konfiguration muss in den erweiterten Einstellungen aller Google Analytics Tags auf der Webseite konfiguriert werden. Abbildung 11 zeigt die Konfiguration eines Google Optimize Tags im Google Tag Manager. In diesem Tag muss im Wesentlichen nur die Property ID von Google Analytics (auch als UA-Nummer bekannt) sowie die Container ID des Google Optimize Experiments eingetragen werden. Um dem Datenschutz zu entsprechen, sollte auch die IP-Adresse anonymisiert werden. Der Trigger sollte so genau wie möglich konfiguriert werden, um das Tag nur dann auszulösen, wenn die entsprechende Seite aufgerufen oder das entsprechende Event ausgelöst wird. Abb. 11: Konfiguration eines Google Optimize Tags im Google Tag Manager. Definition der Zielgruppe und des Zeitraums Sobald das Google Optimize Tag im Google Tag Manager veröffentlicht oder das Google Optimize Snippet in den Quellcode der Seite eingebunden wurde, kann die weitere Konfiguration des Experiments vorgenommen werden. Hierfür sind die Zielgruppe und der Zeitraum des Tests zu definieren. In der kostenlosen Variante lässt sich für die Zielgruppe lediglich auswählen, wie viele User an dem Test teilnehmen sollen. Granulare Einstellungen in Bezug auf die Zielgruppe wie Alter, Geschlecht, Quelle des Zugriffs etc. sind aktuell nicht möglich. Der Zeitraum kann individuell eingestellt werden. Alternativ lässt sich der Test auch sofort starten und, wenn gewünscht, sofort beenden. Abbildung 12 zeigt die derzeit möglichen Einstellungen. Abb. 12: : Einstellung der Zielgruppe in Google Optimize. Im Anschluss an ein Experiment können Marketer die Ergebnisse im Bereich Reporting auswerten. Hierbei werden einmal die Daten insgesamt angezeigt, als auch die der einzelnen Varianten separat. Neben den Standarddaten wie den Seitenaufrufen etc. wird auch der Gewinner des Tests angezeigt inkl. der erhobenen Verbesserungen gegenüber der Basislinie. Ebenfalls werden die einzelnen Varianten gegen die gesetzten Ziele überprüft. Hierdurch ist, in Verbindung mit weiteren Google Analytics Daten, leicht erkennbar, zu welcher Tages- und Stundenzeit sich die Varianten jeweils verbessert haben. Abb. 12: : Abb. 13: Auswertung der Ergebnisse eines Experimentes. Quelle: https://support.google.com/360suite/optimize/answer/6218117?hl=en. Was wir für Sie tun können Sie möchten einzelne Elemente Ihrer Webseite testen, um Conversions, Leads oder Transaktionen zu steigern? Starten Sie mit der kostenlosen Variante von Google Optimize, um schnell und einfach einzelne Experimente durchzuführen. Wir beraten Sie gerne bei der Durchführung und Auswertung von entsprechenden Tests zur Conversion Optimierung, in Verbindung mit den von Ihnen gesetzten Webseitenzielen. Sprechen Sie uns an.

Was Kunden bei einer Webanalyse-Betreuung von Ihrer Agentur erwarten können

02.02.2017

Thorsten

Abrahamczik

Kategorie:

Webanalyse

Webanalyse, was ist das überhaupt? Für viele unserer Kunden bedeutet Webanalyse ein Tool einzusetzen, in das kaum interpretierbare und möglicherweise invalide Daten einlaufen. Die Bedienung überfordert schnell, weshalb das Tool nur alle paar Monate einmal genutzt wird. Immer dann, wenn die Geschäftsführung Daten zu der Webseite sehen möchte oder wenn begründet werden muss, warum das geplante Marketing-Budget für das nächste Jahr so hoch sein soll. Doch Webanalyse ist viel mehr! Webanalyse bedeutet, Interaktionen auf der eigenen Webseite zu hinterfragen, Verhalten einzelner Zielgruppen auszuwerten, Customer Journeys zu erstellen und vieles mehr. Schlussendlich soll aus all diesen Auswertungen und Ergebnissen ein Maßnahmenkatalog erstellt werden können, mit dem Sie ihre Webseite gezielt optimieren. In diesem Artikel möchten wir Ihnen erläutern, was Sie als Online Marketer von einer Agentur erwarten können, die sie im Bereich Webanalyse betreut. Hierbei gehen wir auf unsere Erfahrungen ein und erklären, wie wir mit einem Kunden in das Thema Webanalyse einsteigen. Abb. 1: Geräterübergreifende Webanalyse | Quelle:http://bit.ly/2kxlWF4 Phase 1 – Überprüfung des Status Quo beim Tracking Treten Sie als potentieller Neukunde an uns heran, um mit uns gemeinsam über das Thema Webanalyse zu sprechen, beschreiben wir zunächst, was Webanalyse für uns bedeutet: Webanalyse ist die Grundlage aller Online Marketing Maßnahmen und bildet das Fundament für sämtliche Marketing-Tätigkeiten, online wie offline. Es erhebt sowohl quantitative als auch qualitative Daten. Richtig eingesetzt, beschreibt Webanalyse was durch Kundeninteraktionen passiert und vor allem, wieso diese Interaktionen auftreten. Darüber hinaus setzt sie die eigenen Daten, sofern in Benchmarks verfügbar, mit den Daten anderer Unternehmen oder Industriezweigen ins Verhältnis. Hierdurch kann aufgezeigt werden, wo Sie sich als Unternehmen verbessern können. Webanalyse ist aber vor allem eins, kontinuierlich. Webanalyse ist sehr umfassend und benötigt eine intensive Betreuung. Allerdings ist sie auch kein Hexenwerk, sondern kann leicht umgesetzt werden. Um dies zu gewährleisten, überprüfen wir im ersten Schritt Ihre gegenwärtige Tracking-Implementierung. Auf diese Weise erhalten wir einen Status Quo Ihrer Webanalyse und können besser einschätzen, wo Probleme und Potentiale vorhanden sind. Überprüfung der Konfiguration des Webanalyse-Tools Als Erstes gehen wir in das Tracking-Tool und kontrollieren, welche Daten einlaufen, wie das Tool konfiguriert ist und ob die Daten valide sind. Zu einem Großteil nutzen unsere Kunden Google Analytics als Tool, sodass eine Überprüfung leicht und fast standardisiert möglich ist. Dennoch suchen wir auch nach Besonderheiten in den Daten und der Konfiguration. Beispiele sind unter anderem: Werden Filter korrekt genutzt? Ist Spam in den Daten vorhanden, der die Auswertungen verfälscht? Ist Google Analytics mit anderen Diensten wie AdWords, Search Console etc. verknüpft? Werden die Daten der internen Suche mit erhoben? Sind demografische Daten aktiviert? Wurden Ziele in Google Analytics eingerichtet? Wie Sie sehen, gibt es schon bei der Konfiguration von Google Analytics vieles zu beachten. Gerade wenn Sie sich als Marketer noch unsicher fühlen und nicht genau einschätzen können, welche Einstellung welche Auswirkung verursacht, können die erhobenen Kennzahlen schnell falsch einlaufen oder interpretiert werden. Ein Klassiker ist der Ausschluss der eigenen Zugriffe durch einen IP-Adressen Filter. Wenn wir die Filter-Konfigurationen in Google Analytics überprüfen, ist dieser in 95% der Fälle falsch konfiguriert und funktioniert nicht. Unsere Mitarbeiterin Bettina Wille hat einen ausführlichen Artikel darüber geschrieben, worauf Sie bei der Filter-Konfiguration in Google Analytics achten müssen. Ebenfalls kontrollieren wir auch, ob Sie Reportings nutzen. In der Regel werden diese in Dashboards, Radar-Ereignissen oder benutzerdefinierten Berichten abgebildet, weshalb eine Überprüfung leicht machbar ist. Kontrolle der technischen Implementierung im Quellcode Nachdem wir wissen wie Ihr Google Analytics konfiguriert ist, überprüfen wir die Implementierung im Quellcode. Hierbei geht es nicht nur darum zu schauen ob der Tracking-Code eingebaut ist, sondern insbesondere auch darum, wie er eingebaut ist. Folgend eine beispielhafte Auswahl an Aspekten, die wir kontrollieren: Welche Version des Google Analytics Trackings wurde von Ihnen eingebaut? Wurde der Tracking-Code entsprechend der eingestellten Google Analytics Konfiguration vollständig eingebaut? Gibt es Seiten auf denen der Tracking-Code nicht eingebaut ist? Gibt es mehrere Tracking Code Implementierungen, sodass Daten doppelt erhoben werden? Werden Besonderheiten wie Cross-Domain-Tracking, E-Commerce Tracking etc. korrekt umgesetzt? Werden weitere Eigenheiten beim Tracking genutzt, z.B. benutzderdefinierte Dimensionen, Ereignis-Tracking etc.? Werden die Referrer korrekt übergeben und handelt es sich bei Direct Traffic wirklich nur um Direct Traffic? Überprüfung Datenschutz Zum Schluss überprüfen wir in einzelnen Bereichen, ob Ihr Google Analytics datenschutzkonform eingebaut wurde. Bitte beachten Sie jedoch, dass wir keine Anwaltskanzlei sind und daher keine rechtskonforme und verbindliche Auskunft geben können. Dennoch gibt es Merkmale, die leicht überprüft werden können, z.B.: Anonymisieren Sie die IP-Adresse des Users? Nutzen Sie eine Datenschutzseite, auf der auf den Einsatz von Google Analytics hingewiesen wird? Gibt es für den Nutzer die Möglichkeit sich vom Tracking auszuschließen, sowohl über ein Browser-Plugin, als auch über ein korrekt funktionierenden Opt-Out Cookie? Haben Sie einen Vertrag zur Auftragsdatenverarbeitung mit Google geschlossen? Phase 2 – Entwicklung eines Tracking Konzepts In diesem Artikel sind wir bisher ausschließlich auf eine Umsetzung mit Google Analytics eingegangen. Natürlich gibt es auch andere Arten von Webanalyse mit weiteren Tools für zum Beispiel A/B-Testing, Umfragen etc. Diese müssen ebenfalls überprüft werden. Allerdings möchten wir in diesem Artikel nicht auf einzelne dieser Tools eingehen. Nachdem wir einen genauen Stand über Ihr bisheriges Tracking und Ihre Aktivitäten im Bereich Webanalyse erarbeitet haben, geht es nun an die Entwicklung eines Tracking Konzepts. In diesem beschreiben wir Ihren aktuellen Status Quo und definieren sehr detailliert, welches Tracking zukünftig eingesetzt werden soll. Ebenfalls legen wir gemeinsam mit Ihnen fest, welche Daten in Zukunft über das Standard-Tracking hinaus erhoben, welche Webseiten-Ziele untersucht, welche KPIs definiert und wie die Konfiguration umgesetzt werden sollen. Abbildung 2 zeigt einen Ausschnitt aus dem Inhaltsverzeichnis eines Tracking-Konzeptes: Abb. 2:Gemeinsam mit Ihnen erarbeiten wir ein Tracking Konzept. h3>Analyse und Recherche von Trackingmöglichkeiten durch die Agentur Zu Beginn erarbeiten wir uns, basierend auf der Status Quo Analyse, Möglichkeiten eines erweiterten Trackings auf Ihrer Webseite. Wichtig ist für uns, dass wir nur Daten erheben, die für Sie auch einen Mehrwert haben. Wir können Ihnen auch ein Tracking empfehlen, in dem wir sprichwörtlich alles und nichts tracken. In diesem Fall erheben wir ganz viele Daten, was dazu führt, dass Sie nicht mehr in der Lage sind diese zu analysieren, weil die Datenmenge einfach zu groß ist. Das ist natürlich nicht unser Ziel. Es braucht aus unserer Sicht ein genaues Maß, bei dem Sie gut mit den Kennzahlen arbeiten können und alle Informationen erhalten, die Sie für Ihre Auswertungen benötigen. Abstimmung zu den Tracking-Zielen mit dem Kunden Aus gerade genanntem Grund gehen wir in dieser Phase in einen sehr intensiven Austausch mit Ihnen. Hierbei gibt es viele Gespräche mit unterschiedlichen Personen Ihres Unternehmens, um so Ihre Anforderungen an die Webanalyse kennenzulernen. Einige der Themen über die wir mit Ihnen sprechen sind: Ziele des Unternehmens Ziele der Webseite Bereits genutzte KPIs Bisherige interne Reportings Hierarchie-Ebenen im Unternehmen inkl. unterschiedlicher Reportings für unterschiedliche Ansprechpartner Kooperationen mit Drittanbietern Unterschiede zwischen Reporting und Webanalyse Motivation für den Einsatz von Google Analytics Festlegen von KPIs und Zielen für die Webanalyse Durch diese Gespräche lernen wir nicht nur Ihre Anforderungen kennen, sondern können darüber hinaus auch genauer einschätzen, welche Themen in der Webanalyse für Sie besonders spannend sind. Basierend darauf können wir gezielt Empfehlungen für die Umsetzung des Trackings, die KPIs, Ziele etc. geben. Zu diesem Zeitpunkt kennen Sie jedoch noch nicht unseren finalen Entwurf/Vorschlag. Besprechung des Konzept-Entwurfs mit Kunde und Abnahme durch Kunde Nachdem wir Ihr Tracking Konzept ausgearbeitet haben, gibt es einen gemeinsamen Termin mit Ihnen, in dem wir das Tracking Konzept in allen Details mit Ihnen durchsprechen. Dies ist besonders wichtig, da das Konzept teilweise sehr technisch ist. Es ist jedoch elementar, dass Sie das Konzept genau verstehen. Sollten Sie zu diesem Zeitpunkt Änderungswünsche haben, werden wir diese besprechen und ggf. mit in das Konzept einarbeiten. Phase 3 – Implementierung des neuen Trackings Sobald das Tracking Konzept von Ihnen abgenommen wurde, beginnen wir mit der Umsetzung des Trackings. Hierbei starten wir immer mit der technischen Implementierung, ehe die Konfiguration von Google Analytics beginnt. Nutzung neuester Technologien Wenn wir einen Auftrag zur Implementierung des Trackings erhalten, nutzen wir selbstverständlich immer die neuesten Technologien. Dies beinhaltet den Einsatz des Google Tag Managers sowie die Verwendung von Universal Analytics. Werden spezielle Reportings gewünscht, empfehlen wir dem Kunden den Einsatz von Google Data Studio. Google Tag Manager Wie wir bereits in früheren Artikeln über den Google Tag Manager geschrieben haben, lässt sich die gesamte Tag-Verwaltung, sowohl für Google Analytics, als auch für andere Tools wie AdWords, Dritt-Anbieter etc. sehr leicht abwickeln. Ein großer Vorteil des Tag Managers ist, dass der Quellcode nur in ganz wenigen Fällen von der IT angepasst werden muss. Die Verwaltungsaufgaben bei den Tags können im Anschluss direkt vom Marketer im Tool durchgeführt werden. Die Funktionsweise des Google Tag Managers haben wir bereits in einem umfassenden Artikel beschrieben. Universal Analytics Bei Universal Analytics handelt es sich um die aktuelle Variante von Google Analytics. Die Datenerhebung von Universal Analytics unterscheidet sich minimal vom alten asynchronen Google Analytics und bietet darüber hinaus Vorteile wie Enhanced E-Commerce, UserID etc. Google hat in 2015 bekannt gegeben, dass sie das asynchrone Tracking in Zukunft nicht mehr unterstützen werden. Wann der Support dafür eingestellt wird, ist allerdings unklar. Data Studio und weitere Angebote Mit dem Google Data Studio wurde ein weiteres Tool aus der Google 360° Suite als kostenlose Variante zur Verfügung gestellt. Das Tool bietet seit Anfang Februar die Möglichkeit, so viele Reportings pro E-Mailadresse wie gewünscht zu erstellen, einzig der Double-Click Connector kann in der kostenlosen Fassung nicht genutzt werden. Ansonsten hat es aber denselben Funktionsumfang wie die kostenpflichtige Fassung der 360° Suite. Besonders interessant für Marketer ist, dass die Reportings mit dem eigenen CI versehen werden können. Dies ist gerade dann nützlich, wenn die Reportings an die Geschäftsführung weitergegeben werden. Zusammenarbeit mit der IT oder dem IT-Dienstleister Sobald wir mit der Umsetzung beginnen, müssen in der Regel nur wenige Anpassungen am Quellcode vorgenommen werden. Das alte Tracking bleibt erst einmal bestehen. Dies stellt sicher, dass das Haupt-Tracking nicht beeinflusst wird. Für alle Änderungen am Quellcode bekommt die IT oder der Dienstleister von uns genaue Vorgaben, was zu ändern ist. Grundsätzlich muss der Google Tag Manager Code eingebaut werden, häufig aber auch das Opt-Out Cookie. Wird E-Commerce genutzt oder sollen Conversion-Werte dynamisch von der Webseite übermittelt werden, sind hierfür ebenfalls Anpassungen vorzunehmen. Die gesamte Konfiguration Ihres neuen Trackings erfolgt dann von uns im Google Tag Manager. Das heißt wir richtigen das Universal Analytics Tag ein und erstellen Variablen, Trigger und weitere Tags, um die Vorgaben aus dem Tracking Konzept zu erfüllen. Betreuen wir den Kunden auch in anderenOnline Marketing Bereichen wie Google AdWords, implementieren wir dies auch direkt im Google Tag Manager. Dies ermöglicht eine zukünftige leichtere Verwaltung. Während der gesamten Phase arbeiten wir eng mit Ihnen und ihrer IT zusammen, um eine korrekte Implementierung sicherzustellen. Sollten auf Seiten der IT Fragen entstehen, stehen wir beratend zur Seite. Betreuen wir Ihre Webseite / Content Management System, werden die Anpassungen selbstverständlich von uns durchgeführt. Konfiguration der genutzten Tools Zeitverzögert zur Basis-Einrichtung von Universal Analytics im Google Tag Manager, richten wir in Google Analytics eine sogenannte Testproperty ein, die wir nutzen, um die von uns erhobenen Daten zu testen. Würden wir dies nicht tun, müssten wir die neuen Daten in Ihre Hauptproperty laufen lassen. Dies würde zu Datenverfälschungen und Problemen bei der Übersichtlichkeit führen. Das möchten wir vermeiden. Erst wenn wir wissen, dass sämtliche Daten korrekt vom Google Tag Manager an Google Analytics übermittelt werden, konfigurieren wir das Google Analytics der Hauptproperty. Dies hat damit zu tun, dass manche Konfigurationen erst möglich sind, wenn bestimmte Tags im Google Tag Manager konfiguriert sind. Werden die Daten im Anschluss korrekt vom Google Tag Manager übermittelt und ist Google Analytics korrekt konfiguriert, informieren wir die IT, dass sie den alten Tracking Code entfernen kann. Sobald dies geschehen ist, stellen wir das Tracking im Google Tag Manager so um, dass die Daten nicht mehr in die Testproperty laufen, sondern in ihre Hauptproperty. Auf diese Weise stellen wir sicher, dass Ihre alten Kennzahlen in Google Analytics nicht verloren gehen und sie Ihre neuen Daten mit den alten Daten vergleichen können. Hierbei gilt zu beachten, dass Ihre alten Daten möglicherweise nicht valide sind. Einrichtung von Reportings Ein Teil der Konfiguration von Google Analytics und Google Data Studio kann die Einrichtung von Reportings sein. Diese werden entsprechend den Vorgaben des Tracking Konzepts erstellt. Einweisung des Kunden in Bedienung der Tools Nachdem das gesamte Tracking umgesetzt wurde, müssen Sie die gesamte Umsetzung verstehen und eigenständig anwenden können. Aus diesem Grund führen wir, abhängig von Ihren Vorkenntnissen, eine Einführung in die Implementierung durch. Diese beinhaltet sämtliche Tools (Google Tag Manager, Google Analytics und Google Data Studio). Hierbei handelt es sich allerdings um eine reine Einführung in die Umsetzung. Haben Sie als Kunde nur sehr wenig Erfahrung in Google Analytics und z.B. keinerlei Erfahrung mit dem Google Tag Manager oder Google Data Studio, empfehlen wir eine ausführliche Webanalyse-Schulung. In dieser erläutern wir Ihnen nicht nur sämtliche Tools, sondern auch die Grundlagen von Webanalyse. Abhängig vom Umfang dauert diese zwischen einem und zwei Tagen. Erfahren Sie mehr über unsere Google Analytics Schulungen. Phase 4 – Kontinuierliche Betreuung Damit die neuen Kennzahlen von Google Analytics nach der Einrichtung nicht ungenutzt verloren gehen, unterstützen wir unsere Kunden nach der Implementierung mit einer kontinuierlichen Betreuung. Dies geschieht in der Regel auf zwei Weisen. Zum einen stellen wir sicher, dass die Daten auch zukünftig korrekt erhoben werden, Zum anderen führen wir tiefergehende Analysen durch. Regelmäßige Analysen und Erstellung von Auswertungen durch die Agentur Auf diese Weise können Sie sich auf Ihre Reportings konzentrieren, während wir ausführliche Webanalyse für Sie betreiben. Hierbei konzentrieren wir uns ganz gezielt auf einzelne Teilbereiche. So analysieren wir beispielsweise das Verhalten einzelner Zielgruppen, untersuchen das Verhalten von Usern in einzelnen Webseiten-Bereichen oder erarbeiten neben einer benutzerdefinierten Kanalzuordnung eine Grundlage für ein Attributionsmodell. In einem zweiten Schritt arbeiten wir dieses gemeinsam mit Ihnen weiter aus. So können Sie genau nachvollziehen, wie User mit Ihrem Unternehmen in Berührung kommen und wie Sie einzelne Kanäle optimieren können, um User noch gezielter anzusprechen. Ebenfalls unterstützen wir Sie in den Bereichen A/B- und Multivariates-Testing. Da diese Arbeiten aufwändig aber auch sehr produktiv sind, nutzen unsere Kunden gerne unsere Expertise und überlassen diese Aufgaben uns. Kontinuierlicher Support bei Problemstellungen Bei dieser Thematik handelt es sich primär um eine technische Betreuung. Häufig passiert es, dass durch Anpassungen an der Webseite Fehler in der Datenerhebung entstehen. Dies passiert z.B. durch die Umbenennung einzelner Buttons, das Entfernen von Webseiten-Elementen oder eine vollständige Anpassung eines Webseiten-Elements. In der Regel denkt die IT zum Zeitpunkt der Umsetzung nicht daran, dass sich die Anpassung auf das Tracking auswirken kann. Uns fallen diese Fehler im Allgemeinen schnell auf und wir können sie in Absprache mit Ihnen beheben. Was können wir für Sie tun? Sie möchten Ihr Tracking kontrollieren, es eventuell deutlich erweitern oder einfach die Auswertung der Daten an jemand Drittes auslagern? Sie wollen mit Ihrer Webanalyse gezielte Optimierungen durchführen und so Ihre Leads erhöhen? Sprechen Sie uns an , und wir beraten Sie sehr gerne dabei, wie eine optimale Zusammenarbeit mit Ihnen aussehen kann.

Google Analytics Implementierung mit Screaming Frog überprüfen

15.09.2016

Thorsten

Abrahamczik

Kategorie:

Webanalyse

Heutige Webseiten und Content Management Systeme sind sehr komplex geworden und machen es Anwendern schwer, technische Anpassungen vorzunehmen. Aus unserem Day-to-Day Business wissen wir, dass Online Marketer vor allem beim Tracking immer wieder Probleme haben. Aber nur durch ein valides Tracking kann man saubere Daten in den Analysetools generieren. Nur so sind qualitative Auswertungen möglich. In diesem Artikel stellen wir eine Methode vor, mit der Sie leicht überprüfen können, ob der Google Analytics Code auf allen Seiten eingebaut ist. Darüber hinaus erklären wir Ihnen, wie Sie die Implementierung des Codes überprüfen. Screaming Frog – Das Tool für SEO Ein bekanntes SEO Tools ist das Programm Screaming Frog. Hauptaufgabe des Tools ist das Crawlen von Webseiten. Hierbei wird ein Crawler (alternativ auch Bot bezeichnet) auf die jeweilige Webseite geschickt, um Informationen zu sämtlichen Unterseiten und den dort genutzten Inhalten einzuholen. Marketer können so ganz einfach überprüfen in welchem Maße die Webseite Potentiale für SEO hat. In der kostenlosen Variante können bis zu 500 Webseitenelemente (HTML-Seiten, Bilder, CSS-Dateien etc.) ausgewertet werden, in der kostenpflichtigen Variante ist das Tool deutlich leistungsstärker und crawlt sämtliche Seiten. Neben Standard-Reportings bietet das Tool auch die Möglichkeit, sich mit externen Diensten wie der Google Search Console und Google Analytics zu verknüpfen, um noch genauere Auswertungen zu erhalten. Darüber hinaus bietet es auch die Möglichkeit mit eigenen Filtern Untersuchungen auf der Webseite durchzuführen. Hierbei handelt es sich im Wesentlichen um zwei unterschiedliche Methoden: Suche: Hierbei werden die betroffenen Seiten mit URLs in Screaming Frog aufgelistet. Extraction: In diesem Fall werden die gewünschten Inhalte der betroffenen Seiten von Screaming Frog dargestellt. Konfiguration des Screaming Frog Abbildung 1 zeigt Screaming Frog unmittelbar nach dem Öffnen des Programmes. Tippt man in der Leiste eine URL ein und klickt auf Start, wird die entsprechende Seite oder Domain sofort gecrawlt und es laufen in fast alle Reiter erste Informationen zu den URLs ein. Für Sie wird später der Reiter „Custom“ wichtig. Abb. 1: Der Aufbau von Screaming Frog Identifizierung von Seiten auf denen der Google Analytics Code fehlt Möchten Sie Seiten oder URLs identifizieren, auf denen beispielsweise der Google Analytics Code nicht eingebaut ist, klicken Sie wie in Abbildung 2 sichtbar, auf den Button „Search“.   Abb. 2: Benutzerdefinierte Filter in Screaming Frog nutzen Im anschließenden Dialog stellt Screaming Frog Ihnen zehn verschiedene Filter zur Verfügung. Damit Sie nach Seiten suchen auf denen kein Google Analytics eingebaut ist, wird nur ein Filter benötigt. Stellen Sie hier das erste Feld auf „Does Not Contain“ um und tragen die UA-Nummer Ihrer Google Analytics Property ein. Sie können dort auch andere Angaben machen, wichtig ist jedoch, dass es etwas Einmaliges aus dem Google Analytics Code ist. Beachten Sie auch, dass die Angabe mit keinem anderen Element des Quellcodes identisch sein darf. Aus unserer Sicht bietet sich daher die Google Analytics UA-Nummer an.   Abb. 3: Nutzung des Suchfilters in Screaming Frog Möchten Sie überprüfen, ob der Google Tag Manager korrekt eingebaut wurde, könnten Sie dort auch „GTM-XXXXXX“ als ID des Containers eintragen. Auch in diesem Fall nutzen Sie ein Element, dass einmalig für den Google Tag Manager steht. Im Anschluss werden Ihnen unter der Reiterkarte „Custom“ alle Seiten aufgelistet, auf denen der entsprechende Suchbegriff nicht enthalten ist. So können Sie leicht identifizieren, auf welchen Seiten sie noch Anpassungen vornehmen müssen, um ein vollständiges Tracking zu erhalten. Ebenfalls können Sie auf diese Weise mit einem konkreten Maßnahmenkatalog zur IT gehen. Überprüfung der Google Analytics Property ID auf allen Seiten Für den Fall, dass Google Analytics auf allen Webseiten eingebaut ist, sollten Sie zusätzlich überprüfen, dass die richtige UA-Nummer verwendet wurde. Schnell kommt es zu Tippfehlern und dann haben Sie ebenfalls kein valides Tracking. Hierfür bietet sich wunderbar die „Extraction“ Methode an. Klicken Sie wie in Abbildung 2 sichtbar, auf den Punkt „Extraction“. Im Folgenden Dialog (Abbildung 4) tragen Sie nun im ersten Feld beispielhaft „Google Analytics UA-Nummer“ ein. Dieses Feld wird dafür genutzt im Reiter „Custom“ die entsprechende Spalte zu benennen.   Abb. 4: Einstellung eines Extraction Filters um den Wert der Google Analytics UA-Nummer auszulesen Im zweiten Feld wählen Sie „Regex“ aus. Regex ist eine Abkürzung für „reguläre Ausdrücke“ und bietet die Möglichkeit, mittels einer Zeichenkette exakte Buchstaben-, Zahlen- und Zeichenkombinationen innerhalb eines vorgegebenen Textbereiches, z.B. dem Quelltext einer Webseite, zu identifizieren. Um Google Analytics Elemente auf der Seite zu finden, nutzen Sie folgendes Regex: ["'](UA-.*?)["'] Auf diese Weise sehen Sie für jede Seite Ihrer Domain, welche Google Analytics UA-Nummer verwendet wird. Derart können Sie leicht Flüchtigkeitsfehler identifizieren und im Anschluss beheben. Für den Google Tag Manager würde man in diesem Fall „["'](GTM-.*?)["']“ als Regex-Filter nutzen. In der nächsten Abbildung sehen Sie, wie die Ergebnisse dann im Reiter „Custom“ angezeigt werden   Abb. 5: Reiter "Custom" Fazit Der Screaming Frog bietet neben seinen vielfältigen SEO Analysefähigkeiten mit den benutzerdefinierten Filter eine starke Erweiterungsfähigkeit. Hier können User auch SEO fremde Inhalte überprüfen und Erkenntnisse gewinnen, die die tägliche Arbeit enorm erleichtern. Was wir für Sie tun können? Sie sind sich nicht sicher ob Google Analytics bei Ihnen korrekt eingebaut ist oder fragen sich ob Google Analytics Tracking über das Standard Tracking hinaus erweitert werden kann? Sie möchten Conversions noch genauer messen? Sprechen Sie uns an und wir beraten Sie gerne zur Überprüfung des bestehenden Trackings, der Erstellung eines Tracking-Konzeptes oder dem Einbau von Tracking. Wir freuen uns auf Ihre Anfrage .

Filter bei Google Analytics setzen

28.07.2016

Thorsten

Abrahamczik

Kategorie:

Webanalyse

Google Analytics ist das populärste Webanalysetool. Als Webseitenbetreiber können Sie das Verhalten Ihrer User auf der Seite nachvollziehen und im Anschluss entsprechende Maßnahmen zur Seitenoptimierung definieren. Damit Sie nur die relevanten Daten in Ihrer Auswertung finden, ist es sinnvoll, bestimmte Filter zu setzen. Warum sind Filter in Google Analytics sinnvoll? Google Analytics erfasst ungefiltert alle Daten der Webseitennutzer. Jedoch ist es meistens gar nicht 100%-ig zielführend, alle Werte für eine Analyse zu verwenden. Mit Hilfe von Filtern können Sie die Datenmengen zunächst durch eine Art Sieb leiten, sodass in Ihrer Datenansicht nur noch die Werte angezeigt werden, die sie benötigen. Allgemein lassen sich Filter in folgende Hauptkategorien einteilen: Einschließender Filter: nur ein definiertes Filtermuster kommt durch Ausschließender Filter: das definierte Filtermuster wird ausgeschlossen Suchen & Ersetzen: von Google erfasste Bezeichnungen (z. B. Startseite = „/“) werden umgeschrieben Kleinschreibung: Reduktion doppelter Ergebnisse, in dem alle Buchstaben als Kleinbuchstaben verwendet werden Ein typisches Beispiel, um einen Filter zu setzen, ist der Ausschluss eines IP-Adressraumes. Dadurch können Sie die Daten aus Ihrem Firmen- oder Agenturnetzwerk ausschließen, wenn dieses eine statische IP verwendet. Gleiches gilt für Ihren IT-Dienstleister, der sich mit einer statischen IP-Adresse regelmäßig auf der Seite bewegt, ohne dass es für die Seitenoptimierung relevant ist. Bei dynamischen IP-Adressen ist dieser Filter nicht möglich, da diese alle 24h verändert werden. Der Zugriff von Spam bzw. Bots kann zum Teil von Filtern ausgeschlossen werden. Inzwischen sind viele Verweis-URLs bekannt und in Portalen veröffentlicht, die als Spam auf die Seite gehen und Ihren Traffic verfälschen. Kontrollieren Sie dafür die Verweise, über die die Nutzer auf Ihre Website gelangen. Dabei ist es typisch, dass 1 Seite/Sitzung, 0:00 Zeit auf Seite und annähernd 100 % Absprungrate angezeigt werden. Bei der Recherche können Sie sich über die linke Navigationsleiste über Akquisition, Alle Zugriffe, Verweise einen Überblick über die Verweis-URLs verschaffen. Abb. 1: Verweise in Google Analytics anzeigen lassen Aber auch bei den „Standorten“, dem „Websitecontent“ und „Alle Zugriffe“ können Sie in den Berichten von Google Analytics spammiges Verhalten ausfindig machen. Ein gängiges Beispiel für einen SPAM-Zugriff ist folgendes: Abb. 2: Beispiel für einen Spam-Zugriff So schließen Sie den IP-Adressraum für Ihr Firmennetzwerk aus Möchten Sie mit dem Webanalysetool Google Analytics das Userverhalten überprüfen, sind die Zugriffe aus dem eigenen Netzwerk hinderlich. Interne Seitenaufrufe dürfen nicht mit dem Charakter eines surfenden Nutzers gleichgestellt werden. Damit die Zugriffe aus den eigenen Reihen nicht in Ihren Daten auftauchen, setzen Sie wie folgt einen Filter: Navigieren Sie zunächst in Ihr Google Analytics Konto und öffnen Sie die Verwaltungsansicht: Abb. 3: Verwaltungsansicht in Google Analytics In der rechten Spalte der Datenansicht sehen Sie bereits das Feld „Filter“. Hier haben Sie nun die Möglichkeit, einen neuen Filter hinzuzufügen. Richten Sie den Filter ein. Vergeben Sie einen aussagekräftigen Namen, wählen als Filtertyp „vordefiniert“ aus und nutzen Sie einen „Ausschließen“-Filter. Wählen Sie den „beginnt mit“ Befehl aus und tragen im letzten Feld den Beginn der auszuschließenden IP-Adresse ein. Den „sind gleich“ Befehl sollten Sie nie nutzen. Durch die datenschutzkonforme Anonymisierung der IP-Adresse wird immer der vierte/letzte Teil (die letzten 3 Ziffern) der IP-Adresse abgeschnitten, sodass nie die komplette Zahlenfolge bei Analytics einläuft. Abb. 4: Filter zum Ausschließen von IP-Adressen So schließen Sie Verweis-URLs aus Konnten Sie über die Überprüfung Ihrer Verweis-URLs herausfinden, dass bestimmte Zugriffe über Bots erfolgen und somit als Spam in Ihre Auswertung mit einfließen, sollten Sie einen Filter zur Exklusion dieser Daten erstellen. Sammeln Sie zunächst eine Liste dieser URLs oder recherchieren Sie eine Liste und erstellen ebenfalls einen benutzerdefinierten „Ausschließen“-Filter. Vergeben Sie eine aussagekräftige Bezeichnung und nutzen als Filterfeld den Verweis. Tragen Sie im Anschluss ins Filtermuster alle recherchierten URLs ein. Trennen Sie die einzelnen URLs mit einer Pipe (|). Schreiben Sie vor JEDEM Punkt einen Backslash (), damit der Punkt als regulärer Ausdruck keinen Befehl durchführt. Verzichten Sie im Filtermuster komplett auf Leerzeichen. Leider stellt Google Analytics im Filtermuster nur 255 Zeichen zur Verfügung, sodass Sie ggf. mehrere Filter zum Ausschluss von Verweisen einrichten müssen. Filter vor dem Einsatz testen Haben Sie die Filter gesetzt, sind diese sofort aktiv. Jedoch können Sie herausgefilterte Daten nicht zurück gewinnen oder den Siebeffekt rückgängig machen. Wir empfehlen Ihnen daher, die Filter zunächst in einer Testansicht zu überprüfen, bevor Sie diese auf die Liveumgebung anwenden. Nutzen Sie zudem eine dritte Datenansicht, die ohne Filter alle Daten Ihrer Webseite sammelt. Darüber können Sie bei möglichen Fehlern noch die richtigen Werte rekonstruieren. Wie Sie die Datenansichten konfigurieren sollten, können Sie in unserem Artikel Google Analytics Basiskonfiguration – Das sollten Sie beachten nachlesen. Was wir für Sie tun können Der richtige Einsatz von Filtern bereinigt Ihre Daten, sodass Sie aussagekräftige Ergebnisse aus der Analyse mit Google ziehen können. Benötigen Sie Unterstützung bei der Webanalyse , dann freuen wir uns auf Ihre  Anfrage.

Die Record-Funktion des Google Tag Assistant

30.06.2016

Thorsten

Abrahamczik

Kategorie:

Webanalyse

Viele Unternehmen bauen mit Google Analytics ein kostenloses Webanalysetool in ihre Webseite ein, um einen  Überblick über die Besucherzahlen ihrer Webseite zu erhalten. Genau hier beginnen jedoch häufig die Probleme. In vielen Fällen wird das Tool bzw. der Code des Tools einfach in den Quelltext der Seite hineinkopiert. Dabei wird weder berücksichtigt, dass der Google Analytics Code an einer bestimmten Stelle platziert sein muss, noch, dass die IP-Adresse anonymisiert werden muss. Ebenfalls wird nur selten bedacht, dass in bestimmten Fällen der Referrer, also der Verweis/Link über den ein Nutzer zur eigenen Seite kam, nicht korrekt weitergegeben wird. In diesem Fall wird der Webseitenbesucher als ein Direkter-Einstieg und nicht als ein Zugriff über einen Verweis erfasst. Hier arbeiten die Anwender also schnell mit verfälschten Zahlen. Um diese Problematiken zu erkennen und zu umgehen, bietet Google, wie bereits im Blogartikel Die besten Tools für den erfolgreichen Einstieg in die Webanalyse erwähnt, mit dem Google Tag Assistant eine praktische Browsererweiterung für Chrome an. Die Funktionen des Google Tag Assistant Zunächst bietet der Google Tag Assistant die Möglichkeit, Informationen zu sämtlichen Google Tags anzuzeigen. Hierbei kann es sich beispielhaft um folgende Tags handeln, Screenshot 1 zeigt die entsprechende Übersicht. Ebenfalls sehen Sie dort den Button für die Record-Funktion. Google Analytics, Remarketing, Conversions Tracking, DoubleClick etc. Abbildung 1: Übersicht des Google Tag Assistant Bei jedem einzelnen Tag können Sie sich Detailinformationen einblenden lassen, die Sie über den aktuellen Status des Tags informieren. Durch ein Farbsystem zeigt Ihnen die Browser-Erweiterung weiterführend, ob das Tag richtig implementiert wurde (Grün), ob es leichte Abweichungen von der Implementierungs-Empfehlung gibt (Blau bzw. Gelb) oder ob gravierende Probleme bestehen, die zu Fehlern in der Ausführung des Tags führen (Rot). Der Detailgrad an gelieferten Informationen lässt sich dabei in den Einstellungen des Tag Assistant für jede Art von Tag konfigurieren. Die Record-Funktion Wie Screenshot eins und zwei verdeutlichen, wurde dem Tool mit Blick auf Google Analytics eine Record-Funktion beigefügt, welche genaueste Analysen über mehrere Seitenaufrufe hinweg erlaubt. So können Sie als Anwender leicht erkennen, ob Ihre Daten für Google Analytics korrekt erfasst und verarbeitet werden. Der Vorteil dieser Methode: Die Daten werden für alle ausgeführten Google Analytics Tags einzeln gemessen. So können Sie neben dem Seitenaufruf beispielhaft auch das Ereignistracking oder das E-Commerce Tracking untersuchen. Auf diese Weise können Sie Fehler finden, die Sie ansonsten nur unter erheblich größerem Aufwand entdecken würden. Abbildung 2: Das Recording hat begonnen Hierdurch konnten wir z.B. einen Fehler im Cross-Domain-Tracking eines Kunden entdecken. Dieses war für das Seitenaufruf-Tracking korrekt konfiguriert, für mehrere Ereignis-Tags jedoch nicht. Dies führte dazu, dass beim Seitenaufruf der zweiten Domain der Referrer korrekt übergeben wurde, bei sämtlichen Ereignis-Tags jedoch kein Referrer übermittelt und hier der Fallback „Direct/None“ verwendet wurde. Dies wiederum verfälschte nachweisbar die Kennziffern in Google Analytics. Nach einer entsprechenden Anpassung der Ereignis-Tags wurden die entsprechenden Referrer korrekt übergeben und die Kennzahlen sind wieder richtig in Google Analytics eingelaufen. Vorteilhaft ist die Möglichkeit, die Recordings des Tag Assistant direkt mit Google Analytics zu verknüpfen. Im Auswertungsbereich des Google Tag Assistant können Sie hierfür gezielt einzelne Datenansichten des Google Analytics Kontos auswählen. Ebenfalls können Sie gezielte Standortdaten übermitteln, um zu überprüfen, ob einzelne Daten, z.B. auf Grund von IP-Adressen-Filtern, nicht in Google Analytics einlaufen. In diesem Fall können Sie parallel entsprechende Anpassungen in Ihrer Google Analytics Konfiguration durchführen und das Recording mit einem Klick auf den Aktualisieren-Button auf den neuesten Stand bringen. Eine neue Durchführung des Recordings ist nicht notwendig, um augenblicklich die Ergebnisse der Anpassungen zu sehen. Screenshot 3 zeigt im Folgenden einen Teil des Auswertungsbereichs: Abbildung 3: Auswertungsübersicht der Google Analytics Record-Funktion im Google Tag Assistant Was wir für Sie tun können Bei den internetwarriors gehört der Google Tag Assistent mit seiner Record-Funktion zu den Standard-Werkzeugen im Bereich Webanalyse und SEA. Gerne überprüfen wir auch Ihre Google Implementierung und zeigen mögliche Fehler auf. Wenn gewünscht, können wir diese auch beheben. Verbessern Sie durch genauere Kennzahlen die Qualität Ihrer Auswertungen und entsprechend auch die Aussteuerung Ihres Marketingbudgets. Sprechen Sie uns an.

Weitere Beiträge anzeigen

2026 und das Zeitalter der Agentic Search - Wenn Kunden keine Menschen mehr sind

14.01.2026

Axel

Zawierucha

Kategorie:

Growth Marketing

Hier findest du alle Teile unserer Blogserie: Teil 1 -  Warum "Zero-Sum" ein Irrtum ist und die Suche gerade erst beginnt | findest du hier Teil 2 - Das "December 2025 Core Update" und wie man die Sichtbarkeit zurückgewinnt | findest du hier Teil 3 - Werben im Zeitalter der Konversation – Warum Keywords nicht mehr genügen | findest du hier ————— Blogserie: Die Transformation der Suche 2026 (Teil 4/4)   Willkommen in der Zukunft. Oder besser gesagt: Willkommen in der Gegenwart des Jahres 2026.  In den vorangegangenen Teilen haben wir den Traffic-Crash analysiert und die neuen Werbetools beleuchtet. Zum Abschluss dieser Serie wagen wir den Blick auf das, was gerade entsteht: Das "Agentic Web".  Die größte Veränderung, die uns bevorsteht, ist nicht, wie Menschen suchen, sondern wer sucht. Wir erleben den Übergang von der Informationsbeschaffung zur Aufgaben-Erledigung.  "Preferred Sources": Die Demokratisierung des Algorithmus   Beginnen wir mit einer Technologie, die bereits da ist und SEO für immer verändern wird: "Preferred Sources".  Ende 2025 rollte Google dieses Feature global aus. Nutzer*innen können nun aktiv Nachrichtenquellen und Publisher markieren (mit einem Stern), die sie bevorzugen.  Warum ist das revolutionär?  Bisher war SEO ein technischer Kampf gegen einen anonymen Algorithmus. Jetzt wird Brand Loyalty zum direkten Rankingfaktor. Wenn Nutzer*innen deiner Seite als "Preferred Source" markiert, erhalten deine Inhalte einen permanenten Boost in seinem Feed – völlig unabhängig davon, was das nächste Core Update sagt.  Das bedeutet:  Community > Keywords: Eine kleine, loyale Fanbasis ist wertvoller als breiter, volatiler Traffic.  Trust als Metrik: Du musst deine Nutzer*innen aktiv dazu motivieren, deine Marke als bevorzugte Quelle zu wählen. Das ist der neue Newsletter-Signup.  "Live with Search": Die Welt durch die Kamera sehen   SEO war bisher textbasiert. Mit "Live with Search" wird es multimodal.  Nutzer*innen können nun via Kamera und Sprache in Echtzeit mit Google interagieren. Ein Nutzer filmt ein Regal im Baumarkt und fragt: "Welcher dieser Dübel hält in einer Rigips-Wand?".  Dank des neuen Gemini Native Audio Modells antwortet Google flüssig, wie ein menschlicher Berater im Ohr.  Die Implikation für Marken: Ihre Produkte müssen visuell identifizierbar sein. Verpackungsdesign wird zu SEO. Und: deine Website muss Fragen beantworten, die man stellt, während man das Produkt ansieht, nicht nur, während man danach sucht.  "Agentic Search": Vom Suchen zum Erledigen   Der Begriff des Jahres 2026 lautet "Agentic Search".  Ein KI-Agent (Agent) ist mehr als ein Chatbot. Ein Chatbot gibt Informationen. Ein Agent handelt.  Suche 2024: "Zeig mir Flüge nach London."  Agentic Search 2026: "Buche mir den günstigsten Flug nach London am Freitag, nimm meinen bevorzugten Sitzplatz am Gang und trag es in meinen Kalender ein."  Experten prognostizieren, dass der Markt für KI-Agenten bis 2030 auf über 50 Milliarden Dollar explodieren wird. Für uns bei internetwarriors.de bedeutet das eine radikale Umstellung der "Search Everywhere Optimization" (SEO).  Wenn dein "Besucher" ein Bot ist, braucht er kein schönes Design. Er braucht APIs, klare Schema.org-Strukturen und fehlerfreie Logik. Wir optimieren Websites nicht mehr nur für menschliche Augen, sondern für maschinelle Aktoren.  Gemini in Translate: Der globale Wettbewerb   Zu guter Letzt fällt die letzte Bastion: Die Sprachbarriere.  Mit der Integration von Gemini in Google Translate werden Übersetzungen kontextsensitiv und kulturell nuanciert. Ein US-Shop kann dank Echtzeit-Übersetzung plötzlich den deutschen Markt bedienen, als wäre er lokal ansässig.  Für deutsche Unternehmen bedeutet das: Der Wettbewerb wird global. Aber auch Ihre Chancen werden global.  Fazit: Das Jahr der Entscheidung   Die Transformation der Suche 2026 ist keine Bedrohung für diejenigen, die Qualität bieten.  Redundante Informationen sterben aus (Dezember-Update).  Transaktion und Expertise gewinnen (Liz Reid Theorie).  Werbung wird intelligent und kontextbasiert (AI Max).  Markenbindung schlägt Algorithmus (Preferred Sources).  Bei internetwarriors sind wir bereit für diese Ära. Wir helfen dir, nicht nur gefunden zu werden, sondern gewählt zu werden – von Menschen und von Agenten.  Lass uns gemeinsam deine Strategie für 2026 besprechen. Vereinbare jetzt einen Termin .  

Werben im Zeitalter der Konversation – Warum Keywords nicht mehr genügen

13.01.2026

Axel

Zawierucha

Kategorie:

Growth Marketing

Hier findest du alle Teile unserer Blogserie: Teil 1 -  Warum "Zero-Sum" ein Irrtum ist und die Suche gerade erst beginnt | findest du hier Teil 2 - Das "December 2025 Core Update" und wie man die Sichtbarkeit zurückgewinnt | findest du hier Teil 4 - 2026 und das Zeitalter der Agentic Search - Wenn Kunden keine Menschen mehr sind | findest du hier ————— Blogserie: Die Transformation der Suche 2026 (Teil 3/4)   In den ersten beiden Teilen dieser Serie haben wir die wirtschaftliche Theorie hinter Googles Transformation ("Expansionary Moment") und die brutale Realität des Dezember-Updates für SEOs analysiert. Doch während SEOs noch Wunden lecken, müssen SEA-Manager*innen (Search Engine Advertising) ihre Waffen neu schmieden.  Das Jahr 2026 markiert das Ende der klassischen Keyword-Dominanz. Mit der Einführung von "AI Max for Search" und der Öffnung des "AI Mode" für Werbung hat Google die Spielregeln der Monetarisierung grundlegend geändert. Wer heute noch versucht, exakte Keywords ("Exact Match") gegen eine KI zu bieten, kämpft mit Pfeil und Bogen gegen Drohnen.  In diesem Artikel dekonstruieren wir die neue Werbe-Infrastruktur und zeigen, wie du Anzeigen in einer Welt schaltest, in der Nutzer*innen nicht mehr suchen, sondern sich unterhalten.  AI Max: Der "Intent Engine" ersetzt das Keyword   Lange Zeit war "Performance Max" (PMax) das Allheilmittel für Googles Inventar. Doch für reine Suchkampagnen gab es eine Lücke. Diese wird nun durch "AI Max for Search" geschlossen, ein Tool, das Google als "One-Click Power-Up" vermarktet.  Das Problem mit Keywords   Stell dir vor, Nutzer*innen suchen: "Ich brauche ein Auto für 3 Kinder und einen Hund, das elektrisch fährt und unter 50.000 Euro kostet."  Früher musstes du auf Kombinationen wie "Elektro SUV", "Familienauto günstig" oder "7-Sitzer" bieten. Es musste also geraten werden, was die Nutzer*innen eingeben.    AI Max dreht dieses Prinzip um. Es analysiert nicht die Wörter (Strings), sondern die Absicht (Intent).  Wie AI Max funktioniert   AI Max nutzt deine Website und Ihre Assets als Basis. Wenn Nutzer*innen die oben genannte komplexe Anfrage stellt, versteht die KI den Kontext ("Familie + Platzbedarf + Budgetgrenze"). Sie scannt Ihre Landing Page, findet Ihr Modell "E-Family Van", generiert dynamisch eine passende Headline (z.B. "Der perfekte E-Van für Ihre 5-köpfige Familie") und spielt die Anzeige aus – selbst wenn du das Keyword "Hund" nie gebucht hast.  Die Ergebnisse sprechen eine deutliche Sprache: Beta-Tests zeigen eine Steigerung der Conversions um 27% bei ähnlichem CPA (Cost per Acquisition) im Vergleich zu reinen Keyword-Kampagnen.  Strategischer Rat: Keywords werden zu bloßen "Signalen". Ihre Landing Page und Ihre Creative Assets (Bilder, Texte) werden zum eigentlichen Targeting. Wenn Ihre Landing Page die Frage nicht beantwortet, kann AI Max keine Anzeige generieren.  Der "AI Mode": Anzeigen in der Unterhaltung   Der "AI Mode" ist Googles Antwort auf ChatGPT und Perplexity – eine rein konversationelle Oberfläche, die komplexe, mehrstufige Anfragen bewältigt. Die entscheidende Frage für Advertiser war lange: Wo ist hier Platz für Werbung?  Die Antwort lautet: Sponsored Responses .  Integration statt Unterbrechung   Im Gegensatz zur klassischen Suche, wo Anzeigen oft als Störfaktor wahrgenommen werden, integriert Google Anzeigen im AI Mode nahtlos in den Dialog.  Szenario: Nutzer*innen planen eine Reise nach Tokio und fragt den AI Mode nach Hotels in der Nähe des Shibuya Crossing mit Pool.  Werbung: Statt eines Banners erscheint Ihr Hotel als Teil der Antwort, markiert als "Gesponsert", inklusive Bild und direktem Buchungslink.  Da Anfragen im AI Mode "2x bis 3x länger" sind als in der klassischen Suche, erhält der Algorithmus wesentlich mehr Kontextsignale. Das ermöglicht ein Targeting von bisher unerreichter Präzision. Ein Nutzer, der so spezifisch fragt, befindet sich tief im Funnel. Die Klickrate mag sinken, aber die Conversion-Rate steigt.  Die neue Währung: Assets   Um in AI Max und AI Mode stattzufinden, benötigst du "Rohmaterial". Die KI baut die Anzeige in Echtzeit zusammen. Das bedeutet für dich:  Visuelle Exzellenz: Du brauchst hochwertige Bilder und Videos. AI Max priorisiert visuelle Elemente, um "Rich Cards" im Chat zu erstellen.  Strukturierte Daten: Dein Produkt-Feed (Merchant Center) muss makellos sein. Die KI muss wissen, ob der Schuh "wasserdicht" ist, um ihn auf die Frage "Laufschuhe für Regen" ausspielen zu können.  Broad Match + Smart Bidding: Dies ist die technische Voraussetzung. "Exact Match" schneidet dich von den neuen KI-Oberflächen ab. Du müsstest dem Algorithmus die Leine lassen (Broad Match), ihn aber über das Ziel (Smart Bidding auf ROAS/CPA) steuern.  Fazit für Teil 3   Wir bewegen uns von einer "Search Engine" zu einer "Answer Engine". Werbung muss zur Antwort werden. Werbebanner sterben aus; hilfreiche, kontextsensitive Produktvorschläge übernehmen.  Wird deine Keyword-Listen nicht weg, aber behandeln sie als das, was sie sind: Relikte aus einer Zeit, als wir noch in "Telegrafensprache" mit Maschinen sprachen.  Benötigen Sie Hilfe bei der Umstellung auf AI Max? Das SEA-Team von internetwarriors auditiert Ihr Konto und macht es fit für 2026.  

Das "December 2025 Core Update" und wie man die Sichtbarkeit zurückgewinnt

12.01.2026

Axel

Zawierucha

Kategorie:

Growth Marketing

Blogartikel Banner - Darstellung eines Pendels und das Thema

Hier findest du alle Teile unserer Blogserie: Teil 1 -  Warum "Zero-Sum" ein Irrtum ist und die Suche gerade erst beginnt | findest du hier Teil 3 - Werben im Zeitalter der Konversation – Warum Keywords nicht mehr genügen | findest du hier Teil 4 - 2026 und das Zeitalter der Agentic Search - Wenn Kunden keine Menschen mehr sind | findest du hier ————— Blogserie: Die Transformation der Suche 2026 (Teil 2/4) Während Liz Reid in Interviews die wirtschaftliche Stabilität der Google-Suche betonte, spielten sich in den Serverräumen und Marketingabteilungen weltweit Dramen ab. Das "December 2025 Core Update" wird als eines der volatilsten und härtesten Updates in die Geschichte eingehen. Es war nicht nur eine Korrektur; es war ein Systemwechsel.  In diesem zweiten Teil analysieren wir die forensischen Daten des Updates, erklären, warum "Redundanz" das neue "Spam" ist, und zeigen dir mit dem neuen Feature "Preferred Sources" einen Ausweg aus der Abhängigkeit.  Holiday Havoc: Das Timing des Schreckens   Das Update begann am 11. Dezember 2025 um 9:25 Uhr PT und zog sich bis zum 1. Januar 2026 hin. Für E-Commerce und werbefinanzierte Publisher war dieses Timing – mitten im umsatzstärksten Quartal – der "Holiday Havoc". Die Auswirkungen waren brutal und sofort messbar:  Traffic-Kollaps: Hunderte von Webseitenbetreibern meldeten Rückgänge der täglichen Besucherzahlen zwischen 70% und 85% .  Discover ist tot (für viele): Besonders hart traf es Google Discover. Ein Publisher dokumentierte einen Rückgang der Impressionen um 98% innerhalb weniger Tage vor der offiziellen Ankündigung. Da Discover für viele News-Seiten mittlerweile bis zu zwei Drittel des Traffics ausmachte, kam dies einer Existenzbedrohung gleich.  Volatilitäts-Index: Der SISTRIX Update Radar verzeichnete am Tag der Ankündigung einen Wert von 3.54 – ein massiver Ausschlag, der weit über normalen Schwankungen liegt.  Die "Zweite Welle": Warum es zweimal weh tat   Unsere Analysen bei internetwarriors zeigen ein ungewöhnliches Muster. Nach dem initialen Absturz am 11. Dezember gab es eine trügerische Ruhe, gefolgt von einer "Zweiten Welle" der Volatilität um den 20. Dezember.  Wir interpretieren dies als zweistufigen Filterprozess:  Phase 1 (Inhalt): Der Algorithmus scannte auf statische Qualitätsmerkmale und vor allem auf Redundanz.  Phase 2 (User Signals): In der zweiten Welle wurden die Nutzerdaten der neuen AI Overviews ausgewertet. Seiten, die zwar noch rankten, aber im Vergleich zur KI-Antwort keine Klicks oder hohe Absprungraten generierten, wurden nachträglich abgewertet.  Das neue Ranking-Gift: Redundanz   Warum hat es so viele etablierte Seiten getroffen? Die Antwort liegt in der Natur der AI Overviews. Früher war eine Seite wertvoll, wenn sie Informationen gut zusammenfasste. Heute macht das die KI.  Das Dezember-Update bestrafte Redundanz.  Wenn Ihre Seite lediglich Fakten wiederholt, die im "Knowledge Graph" von Google bereits vorhanden sind (z.B. "Wie groß ist Liz Reid?"), ist Ihre Seite technisch überflüssig. Sie bieten keinen Mehrwert gegenüber der KI.  Google hat seine "Helpful Content"-Signale nun fest in den Kern-Algorithmus integriert. "Helpful" bedeutet heute: Bietet diese Seite eine Perspektive, eine Erfahrung oder Daten, die die KI nicht halluzinieren oder aggregieren kann?  Der Hoffnungsschimmer: "Preferred Sources"   Doch Google nahm nicht nur, Google gab auch. Parallel zum Update und der Volatilität rollte Google das Feature "Preferred Sources" global aus.  Dies ist vielleicht die wichtigste strategische Neuerung für 2026.  Was ist es? Nutzer*innen können in den Sucheinstellungen oder direkt bei den "Top Stories" ihre bevorzugten Nachrichtenquellen markieren (durch einen Stern).  Der Effekt: Inhalte dieser Quellen erhalten einen permanenten Ranking-Boost im persönlichen Feed der Nutzer*innen und erscheinen in einer eigenen Sektion "From your sources".  Das ändert die Spielregeln der SEO fundamental. Bisher war SEO ein Kampf um den Algorithmus. Ab jetzt ist es auch ein Kampf um Brand Loyalty. Ein kleiner Nischen-Blog kann die großen Verlage ausstechen, wenn er eine loyale Community hat, die ihn aktiv als "Preferred Source" markiert.  Wir sehen hier eine Demokratisierung des Algorithmus: Die Nutzer*innen entscheidet mit, wer rankt, nicht nur die KI.  Ihre Überlebensstrategie für Q1 2026   Basierend auf diesen Daten empfehlen wir unseren Kund*innen folgende Sofortmaßnahmen:  Redundanz-Audit: Überprüfe deinen Content. Wenn du einen Artikel hast, der von ChatGPT in 10 Sekunden genauso gut geschrieben werden könnte, lösche oder überarbeite ihn. Füge exklusive Daten, Expertenmeinungen oder Videos hinzu.  Die "Star"-Kampagne: Starte Kampagnen, um die Nutzer*innen dazu zu bringen, dichals "Preferred Source" zu markieren. Erklären den User*innen, wie es geht. Das ist der neue Newsletter-Signup.  Diversifizierung: Verlasse dich nicht allein auf Google Discover. Der 98%-Absturz zeigt, wie volatil dieser Kanal ist.   Das Dezember-Update war schmerzhaft, aber es hat den Markt bereinigt. Wer jetzt noch steht, hat Substanz. Doch wie monetarisiert man diese Substanz in einer Welt, in der Keywords an Bedeutung verlieren? In Teil 3 unserer Serie tauchen wir tief in die neue Werbewelt von AI Max und AI Mode ein und zeigen dir, wie Anzeigen geschaltet werden, wenn keiner mehr sucht. 

Warum "Zero-Sum" ein Irrtum ist und die Suche gerade erst beginnt

09.01.2026

Axel

Zawierucha

Kategorie:

Growth Marketing

Banner Blogserie Transformation der Suche

Hier findest du alle Teile unserer Blogserie: Teil 2 - Das "December 2025 Core Update" und wie man die Sichtbarkeit zurückgewinnt | findest du hier Teil 3 - Werben im Zeitalter der Konversation – Warum Keywords nicht mehr genügen | findest du hier Teil 4 - 2026 und das Zeitalter der Agentic Search - Wenn Kunden keine Menschen mehr sind | findest du hier ————— Blogserie: Die Transformation der Suche 2026 (Teil 1/4)   Wenn wir auf das Jahr 2025 zurückblicken, sehen wir ein Schlachtfeld. Es war das Jahr, in dem die theoretischen Diskussionen über KI im Marketing plötzlich blutiger Ernst wurden. Es war das Jahr, in dem Publisher Panik bekamen, Börsenkurse wackelten und Google-Vizepräsidentin Liz Reid im Wall Street Journal einen Satz sagte, der in die Geschichte des digitalen Marketings eingehen wird: "We are in an expansionary moment."   Für viele unserer Kund*innen bei internetwarriors. fühlte es sich im Dezember 2025 jedoch nicht nach Expansion an, sondern nach Kontraktion. Doch die Daten zeigen ein komplexeres Bild. In diesem ersten Teil unserer vierteiligen Serie zum Jahresauftakt 2026 analysieren wir die makroökonomische Ebene der "neuen Suche". Wir dekonstruieren Googles Strategie und erklären, warum das klassische SEO-Denken in "Klicks" einem neuen Denken in "Transaktionen" weichen muss.  Die Angst vor dem Nullsummenspiel   Bis Ende 2025 dominierte in der SEO-Branche eine einfache, angstgetriebene Rechnung: Das "Nullsummenspiel" (Zero-Sum Game). Die Logik dahinter schien unwiderlegbar: Wenn eine KI (sei es ChatGPT, Perplexity oder Google AI Overviews) die Antwort direkt gibt, klicken Nutzer*innen nicht mehr auf die Website.  1 KI-Antwort = 1 verlorener Klick für den Publisher  Ergo: Das Ökosystem schrumpft  Diese Angst war der Treibstoff für die Volatilität, die wir Ende des Jahres sahen. Doch im Dezember 2025 trat Liz Reid, VP of Search bei Google, in einem viel beachteten Interview mit dem Wall Street Journal dieser These entgegen. Ihre Kernaussage: Wir betrachten den Kuchen als statisch, während er in Wahrheit wächst. Die Theorie des "Expansionary Moment"   Reid argumentierte, dass wir uns in einem "expansionary moment" befinden. Durch die Fähigkeit der KI, komplexere Fragestellungen zu verarbeiten ("Plan mir eine 3-tägige Reise nach Paris mit Kindern unter 500 Euro"), entsteht eine induzierte Nachfrage (Induced Demand).  Früher hätten Nutzer*innen diese komplexe Frage in zehn einzelne Suchanfragen zerlegt – oder sie gar nicht erst gestellt, weil sie wussten, dass Google daran scheitern würde. Heute stellen sie die Frage.  Das Paradoxon, das Reid beschreibt, ist entscheidend für Ihre Marketing-Strategie 2026:  "Making these things easier causes people to ask more questions... to get more help."   Selbst wenn die Klickrate (CTR) pro einzelner Suchanfrage sinkt, weil die KI die Antwort liefert, steigt das totale Suchvolumen so massiv an, dass der absolute Traffic stabil bleibt oder sogar wächst. Reid betont: "Those two things end up balancing out."   Für die Webseitenbetreiber*innen bedeutet das: Der Traffic wird nicht verschwinden, aber er wird sich verlagern. Die einfachen Fragen ("Wie hoch ist der Eiffelturm?") sind für Sie verloren. Die komplexen Fragen ("Welches Hotel in Paris bietet Babysitting und liegt zentral?") werden explodieren.  Das "Schuh-Paradoxon": Information vs. Transaktion   Einer der wichtigsten strategischen Hinweise für 2026 versteckt sich in Reids "Schuh-Beispiel". Auf die Frage nach der Bedrohung des Geschäftsmodells antwortete sie trocken:  "If the ads are for shoes, you might get an answer on AI overviews, but you still have to buy the shoes. None of the AIs substitute the need for the actual pair of shoes." Dieser Satz ist Gold wert. Er zieht eine harte Trennlinie durch das Internet:  Informations-Arbitrage (Gefährdet): Webseiten, die nur Informationen von anderen aggregieren (z.B. "Die 10 besten Laufschuhe"), werden durch die KI ersetzt. Die KI ist der bessere Aggregator.  Transaktions-Ursprung (Sicher): Webseiten, die das Ding an sich haben (den Schuh, das Hotelzimmer, die Dienstleistung), sind unersetzbar.  Für unsere Kunden*innen bei den internetwarriors bedeutet das: Wenn dein Geschäftsmodell darauf basiert, Traffic abzufangen und weiterzuleiten, ohne eigenen Mehrwert zu bieten, war 2025 dein letztes gutes Jahr. Wenn du aber das Produkt oder die Expertise besitzt , beginnt jetzt deine goldene Ära.  Die Stabilität der Werbeeinnahmen: Ein Blick in die Bücher   Viele Analysten erwarteten, dass Googles Werbeeinnahmen einbrechen würden, wenn Nutzer*innen weniger klicken. Doch die Zahlen zeigen Stabilität. Liz Reid bestätigte, dass die Werbeeinnahmen im Umfeld von AI Overviews "relativ stabil" geblieben sind.  Warum? Weil die neuen Suchanfragen im AI Mode (dazu mehr in Teil 3) oft 2- bis 3-mal länger sind als klassische Keywords.1  Längere Anfragen bedeuten mehr Kontext. Mehr Kontext bedeutet präziseres Targeting.  Nutzer*innen, welche "Laufschuhe" suchen, stöbert vielleicht nur.  Nutzer*innen, die "Laufschuhe für Marathon unter 3 Stunden bei Regen" suchen, haben die Kreditkarte schon in der Hand.  Die Klicks werden weniger, aber sie werden wertvoller. Wir bewegen uns von einer Ökonomie der Aufmerksamkeit (Traffic) zu einer Ökonomie der Absicht (Intent).  Fazit und Ausblick   Das Jahr 2025 hat uns gelehrt, dass Google bereit ist, sein eigenes Kerngeschäft zu kannibalisieren, um im KI-Rennen vorne zu bleiben. Für Unternehmen bedeutet das: Keine Panik vor dem Traffic-Verlust bei einfachen Keywords. Konzentrieren Sie sich auf die komplexen Fragen und die Transaktion.  Doch während die Führungsebene bei Google von Expansion spricht, sah die Realität für viele SEOs im Dezember 2025 anders aus. Im nächsten Teil dieser Serie analysieren wir das "December 2025 Core Update" – ein algorithmisches Blutbad, das genau diese neue Realität erzwungen hat.  Hast du Fragen zu deiner Traffic-Entwicklung 2025? Das internetwarriors Team analysiert gerne deine Daten und hilft dir, die neuen Chancen zu nutzen.  

Google AI Mode: Neue Regeln für Sichtbarkeit – Empirische Studie 11/2025

24.11.2025

Moritz

Klussmann

Kategorie:

SEO

Banner Google AI Mode Studie

Es gibt Momente im digitalen Marketing, in denen sich die Spielregeln nicht nur leicht anpassen, sondern komplett neu geschrieben werden. Wir befinden uns genau jetzt in einem solchen Moment. Seit Oktober 2025 ist der Google AI Mode in Deutschland verfügbar und er ist Googles Antwort auf ChatGPT. Viele Marketer*innen und SEOs haben darauf gewartet, doch die Realität trifft viele härter als erwartet.  Einleitung: Das SEO-Beben, das wir kommen sahen  Jahrelang galt das Mantra: "Optimiere für die Top 3, und der Traffic gehört dir." Doch unsere neueste empirische Studie bei internetwarriors zeigt ein anderes Bild. Ein Bild, das für traditionelle SEO-Strategien beunruhigend, für anpassungsfähige Unternehmen aber voller Chancen steckt.  Die wichtigste Erkenntnis vorab: Ein Top-Ranking in der klassischen Google-Suche ist keine Garantie mehr, um in den Large Language Models (LLMs) stattzufinden. Tatsächlich zeigt unsere Datenanalyse, dass über 60 % der Quellen, die der AI Mode zitiert, nicht einmal in den Top 50 der organischen Suche auftauchen.  Was bedeutet das für deine Sichtbarkeit bei Google ? Es bedeutet, dass wir SEO neu denken müssen. In diesem Artikel tauchen wir tief in unsere Analyse von über 3.000 URLs ein und zeigen dir, wie du deine Strategie anpassen musst, um im Zeitalter der AI Search nicht unsichtbar zu werden.  Die Studie: Ein Blick unter die Haube der KI  Bevor wir zu den strategischen Implikationen kommen, ist es wichtig, die Datengrundlage zu verstehen. Wir wollten uns nicht auf Bauchgefühle verlassen, sondern empirische Fakten schaffen.  Unser Studien-Setup:  Wir haben eine umfassende Analyse durchgeführt, die folgende Parameter umfasste:  Umfang: 240 verschiedene Prompts (Suchanfragen).  Vielfalt: 12 unterschiedliche Branchen, von E-Commerce und Pharma bis hin zu Finanzen und Energie.  Datenbasis: Insgesamt wurden 3.109 URLs identifiziert und analysiert, die von der Google AI als Quellen (Citations) ausgegeben wurden.  Ziel: Wir wollten wissen, welche Typen von Websites verlinkt werden, welche Content-Formate gewinnen und wie stark die Überschneidung zur klassischen Suche ist.  Die Methodenübersicht unserer Studie Diese Datenbasis liefert uns den bisher klarsten Blick darauf, wie Google im AI Mode Informationen auswählt und präsentiert.  Der Schock für klassisches SEO: Die 60%-Lücke  Dies ist der Punkt, an dem wir uns ehrlich machen müssen: Das klassische SEO Playbook hilft nur noch bedingt, um die Sichtbarkeit im AI Mode zu erhöhen.  Unsere quantitativen Analysen förderten eine Statistik zutage, die jeden SEO-Manager aufhorchen lassen muss:  "Über 60% der Citations im AI Mode sind NICHT in den Google Top 50 Ergebnissen der klassischen Suche zu finden."   Lass uns das kurz sacken lassen. Selbst wenn du extrem viel Budget und Zeit investiert hast, um für ein Keyword auf Seite 1, 2 oder 3 zu ranken – die KI ignoriert dich in mehr als der Hälfte aller Fälle zugunsten anderer Quellen.  Noch drastischer wird es, wenn wir uns die absolute Spitze ansehen: Nur 21,97 % der im AI Mode verlinkten URLs finden sich auch in den Top-10-Ergebnissen der klassischen Google-Suche.   Was bedeutet das für "Google Ranking verbessern"?  Es bedeutet, dass die Algorithmen, die das organische Ranking bestimmen (Backlinks, technische SEO, Core Web Vitals), nicht deckungsgleich mit den Auswahlkriterien der LLMs (Large Language Models) sind. Die KI sucht nach anderen Signalen. Sie sucht nach semantischer Relevanz, Informationsdichte und Kontext , nicht zwingend nach der Domain mit dem höchsten Authority Score.  Wer heute nur auf das klassische Google Ranking optimieren setzt, optimiert an der Zukunft vorbei. Wir sehen eine Entkopplung der beiden Such-Modi.  Überschneidung der AI Mode Links mit den organischen Top 10 Ergebnissen Unsere Daten zeigen zudem spannende Unterschiede zwischen den verschiedenen KI-Engines. Während sich Google AI Mode und Perplexity noch zu knapp 30 % überschneiden, wählt ChatGPT völlig andere Quellen (unter 10 % Überschneidung). Das "Winner-takes-it-all"-Prinzip der alten SEO-Welt, wo Platz 1 überall gewinnt, ist vorbei.  Wer sind die Gewinner im AI Mode? (Websites & Content)  Wenn die klassischen Top-Rankings nicht mehr ausschlaggebend sind, wer profitiert dann? Unsere Analyse der Website-Typen liefert klare Antworten, wie du deine KI Content Strategie ausrichten solltest.  Brand-Websites und E-Commerce: Das Fundament steht  Die gute Nachricht für Marken: Brand-Websites (44,26 %) und E-Commerce-Shops (10,57 %) machen zusammen über die Hälfte aller Verlinkungen aus.  Das bedeutet, dass Google auch im AI Mode vertrauenswürdigen Markenquellen den Vorzug gibt. Aber – und das ist ein großes Aber – es kommt darauf an, welche Unterseiten verlinkt werden.  Digitale PR ist der neue Backlink-Aufbau  Auffällig ist der Anstieg von News/Journalismus-Seiten (10,19 %) und Vergleichsportalen (10,29 %). Zusammen machen sie über 20 % der Quellen aus.  Interpretation: Die KI validiert Informationen durch Dritte. Wenn deine Marke oder dein Produkt in einem renommierten Nachrichtenartikel oder einem unabhängigen Vergleichsportal erwähnt wird, steigt die Wahrscheinlichkeit massiv, dass die KI diese Informationen aufgreift und dich als Quelle nennt. Digitale PR wird damit wichtiger als der klassische, technische Linkaufbau.  Foren sind (noch) überschätzt  Entgegen dem Hype um "Reddit-SEO" zeigen unsere Daten, dass Foren und Community-Seiten weniger als 3 % der erwähnten Links ausmachen. Eine reine Strategie, die nur auf User Generated Content setzt, greift also zu kurz.  Typ von Websites, die im AI Mode verlinkt werden. Content-Metamorphose: Weg vom Verkauf, hin zur Orientierung  Vielleicht die wichtigste Erkenntnis der Studie betrifft die Art des Contents . Hier müssen Unternehmen am schnellsten umdenken.  Reine Verkaufstexte verlieren an Relevanz. Die KI versteht die Suchintention (Search Intent) viel granularer. Wenn Nutzer*innen den AI Mode nutzen, suchen sie oft nach Zusammenfassungen, Erklärungen oder Vergleichen – nicht direkt nach einem "Kaufen"-Button.  Unsere Daten sprechen eine deutliche Sprache:  Blogartikel dominieren: 41,23 % aller verlinkten URLs sind Blogartikel oder blog-ähnlicher Content.  Listicles funktionieren: Mit 12,35 % sind Listen (z.B. "Die 10 besten...") das zweithäufigste Format.  Hilfe-Seiten verlieren: Reine FAQ- oder Hilfe-Seiten liegen nur bei 4,67 %.  Warum ist das so?  Listicles und gut strukturierte Blogartikel bieten der KI "futtergerechte" Informationen. Sie bieten Orientierung und Struktur, die das Sprachmodell leicht extrahieren und neu zusammensetzen kann. Eine reine Produktseite bietet oft zu wenig Kontext. Eine trockene FAQ-Seite ist oft zu spezifisch und bietet nicht den umfassenden Kontext, den die KI für eine generierte Antwort benötigt.  Art von Content Das Fazit für deine Content-Strategie: Content, der Orientierung bietet, gewinnt. Unternehmen müssen weg von reinem Sales-Content und hin zu informativen, nutzerzentrierten Inhalten, die Fragen umfassend beantworten.  GEO (Generative Engine Optimization): Die neue Ära der Optimierung für Google  Wir müssen aufhören, nur "SEO" zu sagen, wenn wir eigentlich Sichtbarkeit in KI-Systemen meinen. Der Fachbegriff, der sich hier herauskristallisiert, ist GEO (Generative Engine Optimization) .  Basierend auf unserer Studie lassen sich konkrete Handlungsempfehlungen für GEO ableiten:  On-Page GEO ist ein großer Hebel: Da Brand-Websites so stark vertreten sind, hast du die Kontrolle. Optimiere deine informativen Bereiche. Sorge dafür, dass deine Blogartikel klare Strukturen, Listen und prägnante Zusammenfassungen enthalten.  Informational vor Transactional: Bei Prompts mit informativer Suchintention ist die Chance höher, auch mit guten Rankings in den AI Mode zu kommen. Investiere in High-Level-Content, der Themen erklärt, statt nur Produkte zu bewerben.  Erweitere deine PR-Arbeit: Sorge dafür, dass du auf News-Seiten und in Vergleichsportalen stattfindest. Die KI vertraut diesen Quellen. Deine Marke muss dort präsent sein, wo Meinungen gebildet werden.  Diversifiziere deine Quellen: Verlasse dich nicht darauf, dass dein Google-Ranking dich rettet. Da über 60 % der AI-Links aus dem "Nichts" (außerhalb der Top 50) kommen, hast du die Chance, mit hochspezifischem, exzellentem Content Nischen zu besetzen, die im klassischen SEO von großen Playern dominiert werden.  Fazit: Wer jetzt handelt, sichert sich den Vorsprung  Die Integration von KI in die Suche und die Nutzung von LLMs werden sich immer weiter verstärken. Wir stehen erst am Anfang dieser Entwicklung. Die Tatsache, dass der AI Mode oft andere Quellen wählt als der klassische Algorithmus, ist beängstigend und befreiend zugleich.  Es bedeutet, dass die Karten neu gemischt werden. Kleine Player mit exzellentem Content können Giganten schlagen, die sich nur auf ihrer Domain Authority ausruhen. Unternehmen, die jetzt reagieren und ihre Strategie von reinem SEO hin zu einer hybriden SEO/GEO-Strategie entwickeln, sichern sich einen entscheidenden Wettbewerbsvorteil.  Warte nicht, bis dein Traffic einbricht. Nutze die Erkenntnisse aus unserer Studie, um deine Inhalte fit für die AI Suchmaschine zu machen.  Möchtest du tiefer in die Daten eintauchen?  Unsere Studie enthält noch viel mehr Details, Branchen-Breakdowns und spezifische Analysen zu Perplexity und ChatGPT.  Lade dir jetzt die komplette Google AI Mode Studie herunter und erfahre im Detail, wie du deine SEO / GEO Strategie für die Zukunft optimierst.   🔗 Kostenloser Download der Google AI Mode Studie Hinweis zur Transparenz: Dieser Artikel basiert auf de empirischen Studie "Google AI Mode: Neue Regeln für Sichtbarkeit" von internetwarriors, durchgeführt im November 2025.  

YouTube Ads 2025: Demand Gen & KI verändern das Video-Marketing

21.11.2025

Josephine

Treuter

Kategorie:

SEA

Banner YouTube Ads 2025 - Frau mit Sneakern vor der Kamera

YouTube ist ein wichtiger Ort für Branding und Reichweite - ein Kanal, um Marken sichtbar zu machen und günstigen Traffic zu generieren. Auch heute bleibt YouTube ein zentraler Bestandteil der Marketingstrategie, insbesondere im Top-of-Funnel-Bereich. Doch mit der Einführung von Demand Gen-Kampagnen und dem verstärkten Einsatz von künstlicher Intelligenz eröffnen sich neue Chancen: Branding und Performance können nun kombiniert werden, sodass Marken nicht nur ihre Reichweite steigern, sondern auch gezielt und messbar ihre Performance optimieren können.  Früher galt YouTube als Plattform für „Top of Funnel“-Strategien. Heute ist es ein Conversion-Motor. Dank KI-gestützter Automatisierung können Marketer nicht nur Zielgruppen präzise ansprechen, sondern auch Gebotsstrategien wie „Conversion maximieren“ oder „Ziel-ROAS“ dynamisch steuern. KI analysiert in Echtzeit, welche Nutzer*innen am wahrscheinlichsten konvertieren, und sorgt dafür, dass Budgets effizient eingesetzt werden.  Demand Gen geht dabei noch einen Schritt weiter: Es kombiniert Video- und Bildanzeigen in einer einzigen Kampagne, die über YouTube, Discover und Gmail ausgespielt wird. Das bedeutet mehr Reichweite, mehr Touchpoints und mehr Möglichkeiten, deine Zielgruppe zum Handeln zu bewegen.  Bevor wir tiefer in die Strategien eintauchen, lohnt sich ein Blick auf die Bedeutung von YouTube im Marketing-Mix und warum Demand Gen die Zukunft für alle ist, die Performance ernst nehmen.  Warum YouTube?  Bildquelle: Google Support  In einer digitalen Welt ist YouTube ein zentraler Bestandteil des Marketing-Mix. Laut Statista sind weltweit mehr als 2 Milliarden Nutzer*innen monatlich auf YouTube aktiv, das entspricht etwa 40 % der globalen Internetnutzer*innen. Allein in Deutschland nutzen rund 72,6 Millionen Menschen die Plattform monatlich, mit einer täglichen Reichweite von etwa 37 % (Umfrage 2022).  Diese Reichweite bietet Werbetreibenden enorme Chancen. Nutzer*innen verbringen viel Zeit auf der Plattform, konsumieren Inhalte gezielt und reagieren auf Empfehlungen ihrer Lieblings-Creator. Mit KI-gestützten Algorithmen können diese Nutzer*innen noch genauer analysiert werden und personalisierte Anzeigen in Echtzeit ausspielt werden. Das steigert nicht nur die Effektivität von Video Ads, sondern auch die Conversion-Chancen deutlich.  Was ist eine Demand Gen-Kampagne?  Demand Gen-Kampagnen sind die Weiterentwicklung der bisherigen Video-Aktionskampagnen und bieten eine leistungsstarke Möglichkeit, Conversions über mehrere Google-Plattformen hinweg zu steigern. Statt nur auf YouTube zu setzen, kombiniert Demand Gen verschiedene Formate, darunter Video, Bild und Karussell, und spielt sie auf YouTube, Discover und Gmail aus.  Das Ziel: Nutzer*innen nicht nur zu erreichen, sondern aktiv zum Handeln zu bewegen. Durch KI-gestützte Automatisierung werden Zielgruppen präzise identifiziert, Anzeigen dynamisch optimiert und Gebotsstrategien wie „Conversion maximieren“ oder „Ziel-ROAS“ effizient umgesetzt.  Während Video-Aktionskampagnen bereits eine deutliche Verbesserung gegenüber den früheren TrueView for Action-Kampagnen darstellten, geht Demand Gen noch einen Schritt weiter: Mehr Reichweite, mehr Formate, mehr KI-Power. Google berichtet, dass Werbetreibende mit Demand Gen bis zu 20 % höhere Conversion-Raten erzielen können und das bei einer deutlich flexibleren Kampagnenstruktur.  Wo werden die Demand Gen-Kampagnen ausgespielt und wie sehen diese aus?  Demand Gen-Kampagnen bieten maximale Flexibilität bei der Ausspielung deiner Anzeigen. Statt nur auf überspringbare In-Stream-Anzeigen wie früher bei TrueView for Action zu setzen, kannst du jetzt verschiedene Formate nutzen:  Videoanzeigen (inkl. YouTube Shorts)  In-Feed-Anzeigen  Karussell- und Bildanzeigen  Diese Anzeigen erscheinen nicht nur im YouTube-Startseitenfeed, sondern auch in den Bereichen „Empfohlene Videos“, auf Suchergebnisseiten sowie in Google Discover und Gmail. Zusätzlich werden sie bei Google-Videopartnern ausgespielt, für eine deutlich größere Reichweite.  Das Besondere: KI entscheidet automatisch, wo deine Anzeigen die höchste Wirkung erzielen. Sie analysiert Nutzer*innenverhalten, Conversion-Potenzial und Kontext, um die beste Platzierung in Echtzeit zu wählen.  Für optimale Performance empfiehlt Google, Videos mit einer Länge von mindestens 10 Sekunden einzusetzen. Außerdem kannst du mehrere Assets wie Call-to-Actions, Überschriften und Beschreibungen hinzufügen. Die KI testet diese Kombinationen automatisch und wählt die Varianten aus, die das höchste Engagement und die besten Conversion-Raten erzielen.  Mit KI zum Erfolg: Best Practices Demand Gen-Kampagnen  Video Ads auf YouTube entwickeln sich rasant weiter und mit ihnen die Möglichkeiten, Conversions zu steigern. Dank KI können Marketeers ihre YouTube Ads noch präziser aussteuern und automatisch optimieren. Wer erfolgreich sein will, sollte die folgenden Best Practices beachten.  1. KI-gestütztes Targeting nutzen  Die Zielgruppe richtig zu erreichen, entscheidet über den Kampagnenerfolg. Mit AI optimierte YouTube Ads analysieren Verhalten und passen Targeting dynamisch an, um Conversions zu maximieren. So werden Streuverluste minimiert und Budgets effizient eingesetzt.  2. Automatisierte Video-Creatives einsetzen  Nicht jede Video-Ad erzielt sofort die maximale Wirkung. Mit KI lassen sich Video-Creatives automatisch testen und optimieren: Varianten von Intro, CTA oder visuellem Layout werden analysiert, um die höchste Engagement- und Conversion-Rate zu erzielen.  3. Gebotsstrategien intelligent optimieren  YouTube Ads kann Gebote mit Hilfe von AI dynamisch anpassen, basierend auf historischen Daten, Echtzeit-Verhalten und Conversion-Potenzial. Strategien wie „Conversion maximieren“ oder „Ziel-ROAS“ lassen sich so deutlich effizienter umsetzen.  4. Performance kontinuierlich überwachen  KI-gestützte Dashboards können Insights liefern, welche Creatives, Call-to-Actions oder Formate am besten performen. Marketingexpert*innen können so Entscheidungen datenbasiert treffen, Kampagnen optimieren und langfristig den ROI steigern.  5. Testen und lernen mit KI  Regelmäßige Experimente sind entscheidend: KI identifiziert automatisch die besten Kombinationen von Assets, Videoformaten und Texten. Das spart Zeit und sorgt dafür, dass jede Kampagne kontinuierlich verbessert wird.  Wer Kampagnen auf YouTube erfolgreich durchführen möchte, kommt an KI mittlerweile nicht mehr vorbei. Mit KI-basierten Strategien für Video Ads lassen sich Conversions steigern, Budgets effizient nutzen und kreative Prozesse automatisieren. Marketingexpert*innen, die diese Best Practices anwenden, sichern sich einen klaren Wettbewerbsvorteil.  Welche KI gestützten Creatives eignen sich für Video Ads?  ABDC-Prinzip  Das Erstellen relevanter Werbeinhalte ist der Schlüssel zum Erfolg jeder YouTube-Kampagne. Die ersten Sekunden eines Videos sind entscheidend, um die Aufmerksamkeit der Zuschauenden zu fesseln. Werden visuell ansprechende, kontrastreiche Bilder genutzt und wird sichergestellt, dass die Brand von Anfang an erkennbar ist und durchgehend im Video präsent bleibt, bildet das eine gute Grundlage.  Mit KI lassen sich Creative-Varianten automatisch generieren und optimieren. Die KI analysiert dabei Texte, Bilder, Videoclips und Call-to-Actions, um herauszufinden, welche Kombinationen die höchste Engagement- und Conversion-Rate erzielen. So kann automatisch getestet werden, welche Storytelling-Elemente und visuellen Stile am besten bei deiner Zielgruppe ankommen.  Wird versucht, innerhalb des Videos eine Geschichte zu erzählen, die wichtige USPs hervorhebt, aber auch Emotionen weckt, hat das einen sehr positiven Einfluss. KI kann dabei unterstützen, die effektivsten Storytelling-Elemente, visuellen Stile und Call-to-Actions automatisch zu identifizieren, um die Performance der Video Ads zu steigern. Zudem sollte jedes Video mit einer klaren Call-to-Action (CTA) enden, um Interaktionen zu fördern. Für weitere Infos kann das ABCD-Prinzip für effektive Creatives von Google als Hilfe genutzt werden.  KI-gestützte Gebotsstrategien für YouTube Demand Gen-Kampagnen  Da bei den Demand Gen-Kampagnen die Conversions im Vordergrund stehen, kann man Conversion-bezogene Gebotsstrategien gezielt mit KI-Unterstützung einsetzen, z. B. „Ziel-CPA“. Die KI analysiert kontinuierlich historische Daten, Nutzer*innen-Verhalten und die aktuelle Performance, um Gebote dynamisch anzupassen und Conversions effizient zu maximieren.  Wichtig ist zu beachten, dass das festgelegte Kampagnenbudget beeinflusst, wie schnell der KI-Algorithmus die Kampagne hinsichtlich der Conversions optimieren kann. Besonders für die Gebotsstrategie „Ziel-CPA“ empfiehlt sich ein Tagesbudget, das mindestens dem 15-Fachen des angestrebten CPA entspricht, damit die KI genügend Daten hat, um präzise Entscheidungen zu treffen.  Fortgeschrittene KI-gestützte Strategien, wie „Ziel-ROAS“ oder „Conversion-Wert maximieren“, stehen für Demand Gen-Kampagnen erst dann zur Verfügung, wenn innerhalb der Kampagne mindestens 30 Conversions erreicht wurden. Die KI sorgt dann dafür, dass Budgets und Gebote automatisch auf die profitabelsten Nutzer*innen und Zeitfenster ausgerichtet werden.  Warum die Demand Gen-Kampagnen mit Hilfe von KI testen?  Demand Gen-Kampagnen sind die Zukunft für Performance-Marketing auf YouTube und darüber hinaus. Sie bieten eine effektive Möglichkeit, Conversions zu steigern, Reichweite zu maximieren und den ROI nachhaltig zu verbessern. Der Einsatz von KI macht den Unterschied: präzises Targeting, dynamische Gebotsanpassungen und die automatische Optimierung von Creatives sorgen dafür, dass Budgets effizient genutzt und Streuverluste minimiert werden.  Regelmäßiges Testing mit KI ist entscheidend, um die besten Kombinationen aus Videoformaten, Storytelling-Elementen und Call-to-Actions zu identifizieren. So werden Kampagnen kontinuierlich optimiert und messbare Ergebnisse erzielt.  Braucht dein Unternehmen Unterstützung bei der Planung, Erstellung oder Optimierung von Demand Gen-Kampagnen? Die Warriors aus Berlin stehen bereit - kontaktiere uns für ein unverbindliches Angebot und sichere dir den Vorsprung im KI-gestützten Marketing. 

Local SEO & KI-Sichtbarkeit: Die wichtigsten Maßnahmen für deine GEO-Strategie

20.10.2025

Julien

Moritz

Kategorie:

SEO

Banner für einen Blogbeitrag: Smatphone mit offener ChatGpt aplication

Die Suchwelt verändert sich rasant. KI und LLMs wie ChatGPT oder Google AI Mode beeinflussen, wie Unternehmen gefunden werden. Wer regional sichtbar bleiben will, muss seine Strategie anpassen und wichtige Maßnahmen für local GEO und SEO kennen. Besonders für die Sichtbarkeit lokaler Unternehmen sind diese Maßnahmen entscheidend für eine komplexe Strategie, die lokales SEO und GEO optimal verbindet. Das Wichtigste auf einem Blick Die Kombination aus local SEO und GEO-Inhalten ist heute entscheidend für maximale Sichtbarkeit.  Unternehmensprofil, Bewertungen, Offpage-Maßnahmen und eine gute technische Grundlage sind die Basis für lokale Auffindbarkeit. KI und LLMs verändern die Suchwelt: Inhalte müssen maschinenlesbar, semantisch und entlang der Customer Journey strukturiert werden. Gezielter Linkaufbau und KI-optimierte Inhalte sind die wichtigsten Maßnahmen. Mit einem Prompt-Monitoring und neuen KPIs wird nachhaltiger Erfolg messbar. Prompt Datenbank aufbauen – unsere Matrix Ein zentraler Erfolgsfaktor für lokale SEO und KI-Sichtbarkeit ist die gezielte Ausrichtung der Inhalte entlang der Customer Journey. Warum ist das relevant? Nutzer befinden sich in unterschiedlichen Phasen ihrer Entscheidungsfindung und stellen jeweils andere Anforderungen an die Inhalte, die sie konsumieren. Wer seine Content-Strategie darauf abstimmt, sorgt dafür, dass die eigene Marke in KI-generierten Antworten erwähnt wird oder die Website als Quelle für die Antworten genutzt wird.  Für die Erstellung dieser Prompt-Datenbank haben wir eine Matrix entwickelt. Wer seine Inhalte entlang dieser Matrix ausrichtet, spricht Nutzer gezielt in jeder Phase der Customer Journey an und steigert nachhaltig die Sichtbarkeit.  Zu Beginn steht die Discovery & Awareness-Phase . Hier suchen Nutzer nach allgemeinem Wissen, möchten ein Problem verstehen oder eine Lösung kennenlernen. Unternehmen sollten in dieser Phase ihre Autorität zeigen, Schritt-für-Schritt-Anleitungen anbieten und eigene Lösungen präsentieren.  In der Consideration-Phase vergleichen Nutzer verschiedene Angebote und wägen Vorteile ab. Hier gilt es, Vertrauen aufzubauen, die Stärken des eigenen Angebots hervorzuheben und Produkte im Vergleich positiv darzustellen.  Die Decision-Phase ist geprägt von einer klaren Kaufabsicht. Inhalte sollten hier einen direkten Handlungsaufruf enthalten und den Nutzer zur gewünschten Transaktion führen.  Schließlich gibt es noch die KI-spezifischen Intents . Nutzer geben gezielt Befehle oder möchten automatisierte Prozesse anstoßen. In dieser Phase ist es wichtig, die eigene Marke in den Kontext solcher automatisierten Abläufe zu bringen und Lösungen für spezifische Aufgaben bereitzustellen.  Um die Prompts zu erstellen, können relevante SEO-Keywords als gute Grundlage genutzt werden. So stellst du sicher, dass die SEO und GEO-Strategie Hand in Hand gehen. Die erstellte Prompt-Datenbank sollte anschließend in ein Monitoring-Tool hinzugefügt werden, um einen Überblick der aktuellen Sichtbarkeit in KI und Suchmaschinen zu erhalten. Daraus ergeben sich dann Maßnahmen, um bestehenden Content zu überarbeiten und Potenziale für neue Inhalte. Local GEO und SEO: Was heute wirklich zählt SEO und KI-Sichtbarkeit sind heute besonders wichtig für lokale Unternehmen. Wer bei local GEO und SEO die richtigen Maßnahmen umsetzt, bleibt für potenzielle Kunden und KI-Systeme dauerhaft präsent. Inhalte maschinenlesbar strukturieren Eine saubere und strukturierte technische Umsetzung ist für die Sichtbarkeit von lokalen Unternehmen im digitalen Raum unverzichtbar. Damit Suchmaschinen und KI-Modelle Inhalte optimal erfassen und ausspielen können, sollte die Website mit sauberem HTML und semantischen Tags wie <article> und <section> aufgebaut werden. Zusätzlich empfiehlt es sich, spezielle Markups wie FAQ- oder HowTo-Strukturen zu nutzen, um Informationen für Suchmaschinen und KI noch besser zugänglich zu machen. Die folgende GEO-Formel hat sich bewährt: Relevante Nutzerfragen werden als Überschrift (H2) formuliert. Direkt darunter folgt eine präzise und verständliche Antwort. Im Anschluss werden weiterführende Informationen angeboten, die das Thema vertiefen oder zusätzliche Aspekte beleuchten. Diese klare Struktur hilft nicht nur den Nutzern, sondern sorgt auch dafür, dass Suchmaschinen und KI-Systeme die Inhalte besser interpretieren und ausspielen können. Lokal relevante Inhalte erstellen Besonders wirkungsvoll sind stadtbezogene Case Studies, Kundenberichte, lokale Events sowie die Einbindung von Wahrzeichen und Stadtteilen. Solche Inhalte schaffen nicht nur Nähe zur Zielgruppe, sondern unterstreichen die lokale Kompetenz und Präsenz des Unternehmens.  Ein weiterer zentraler Aspekt ist die regelmäßige Verwendung von lokalen Keywords (Leistung + Stadt) in den Website-Texten. Dadurch wird eine klare Verknüpfung zwischen Standort und angebotener Dienstleistung hergestellt, was die SEO- und LLM-Sichtbarkeit verbessert.  Der Content sollte verschiedene Nutzerintentionen entlang der Customer Journey abdecken (siehe Prompt Matrix). So werden potenzielle Kunden in jeder Phase gezielt angesprochen und begleitet. Es ist wichtig, echte Nutzerfragen in die Inhalte zu integrieren. Indem häufig gestellte Fragen direkt beantwortet werden, erhöht sich die Relevanz der Website für Suchmaschinen und KI-Modelle. „Alte“ Grundlagen für local SEO auch für local GEO beachten  Ein vollständiges Unternehmensprofil bei Google und Bing ist die Grundlage für eine starke lokale Präsenz. Je mehr Informationen hinterlegt sind, desto besser können Suchmaschinen und KI-Modelle das Unternehmen einordnen und ausspielen. Ebenso wichtig ist es, aktiv für Kundenfeedback zu sorgen und Bewertungen zu sammeln. Positive Rückmeldungen stärken die Glaubwürdigkeit und wirken sich direkt auf die lokale Sichtbarkeit in AI, LLMs und Suchmaschinen aus.  Darüber hinaus sollte das Unternehmen in relevante Branchenverzeichnisse eingetragen werden, um die Auffindbarkeit und Reichweite weiter zu erhöhen. Ergänzend dazu sorgt gezielter branded Traffic über Social Media für ein gesundes Signal an Suchmaschinen und KI-Systeme. Die aktive Kommunikation und Interaktion auf sozialen Plattformen schafft zusätzliche Glaubwürdigkeit und unterstützt die lokale Sichtbarkeit nachhaltig. Linkaufbau in Zeiten von KI  Sprachmodelle durchsuchen und vergleichen in der Regel nicht eigenständig einzelne Dienstleistungen oder Produkte. Stattdessen greifen sie meist auf Vergleichsseiten, Nutzerberichte und ähnliche Quellen zurück, um Empfehlungen auszusprechen. Genau hier liegt eine wertvolle Chance für Unternehmen: Wer gezielt Backlinks auf solchen Plattformen aufbaut, erhöht die Wahrscheinlichkeit, in KI-generierten Antworten und Empfehlungen berücksichtigt zu werden. So lässt sich die AI-Sichtbarkeit in LLMs gezielt stärken und gleichzeitig wird durch qualitative Backlinks die Relevanz der Website für Suchmaschinen erhöht.  Die Plattformen lassen sich durch das ausgewählte Tool mit eingerichtetem Monitoring der Prompts identifizieren und priorisieren. Dabei gilt Qualität vor Quantität: Beiträge, die bereits häufig von LLMs zitiert werden, sind wertvoller als von KI selten genutzte Artikel. Bestehenden Content für echte Nutzerfragen optimieren Wenn deine Domain bereits in den organischen Suchergebnissen sichtbar ist, lohnt es sich, den Content gezielt für echte Nutzerfragen zu optimieren. Solche Fragen lassen sich beispielsweise mit der Google Search Console identifizieren, indem man nach Suchanfragen filtert, die typische Fragewörter enthalten. Wir nutzen beispielsweise folgenden Regex-Filter: Abbildung 1: Regex-Filter in der Google Search Console   Abbildung 2: Suchanfragen mit dem Regex-Filter in der Google Search Console   Wichtig ist, diese Fragen klar und hilfreich direkt unter einer H2-Überschrift zu beantworten. So wird der Content nicht nur für Nutzer attraktiver, sondern auch für Suchmaschinen und KI-Modelle besser verständlich.  Solltest du bereits einen Chatbot auf der Website haben, können die hier gestellten Fragen ebenfalls ein guter Indikator sein, dass diese auch oft an ChatGPT & Co. gestellt werden. Also lohnt es sich auch diese Fragen bereits im Content zu beantworten, um als Quelle von LLMs genutzt zu werden und damit die Sichtbarkeit in AI auszubauen. Neue GEO-KPIs etablieren  Auch wenn klassische SEO-Kennzahlen wie die Steigerung der Klicks oder des Traffics lange Zeit im Mittelpunkt standen, sind sie heute nicht mehr allein ausschlaggebend. Viele Unternehmen verzeichnen Rückgänge beim Suchmaschinen-Traffic, da KI-Modelle und LLMs zunehmend Antworten direkt ausspielen und Nutzer seltener auf die Website klicken. Der Traffic aus LLMs kann diese Einbußen meist nicht vollständig ausgleichen. Allerdings zeigt sich, dass die Qualität dieses Traffics oft deutlich höher ist und die Conversion Rate steigt.  Um die Sichtbarkeit lokaler Unternehmen  und den Erfolg der eigenen Maßnahmen dennoch gezielt zu messen, empfiehlt es sich, bewährte SEO-KPIs mit spezifischen GEO-KPIs zu kombinieren. Dazu zählen zum Beispiel die Brand Mention Rate, also wie häufig die eigene Marke in wichtigen Prompts genannt wird (z.B. über 40%), die AI Platform Coverage, also die Präsenz auf mehreren relevanten LLMs (z.B. mehr als fünf), sowie der Brand Search Uplift, der den Anstieg der Marken-Suchanfragen nach umfassenden GEO-Maßnahmen misst (z.B. über 25%). So entsteht ein ganzheitliches Bild, das sowohl die Reichweite als auch die Qualität der Sichtbarkeit in klassischen Suchmaschinen und KI-basierten Systemen abbildet.  Fazit: Lokale Sichtbarkeit in LLMs und Suchmaschinen  Die lokale Sichtbarkeit von Unternehmen in LLMs und klassischen Suchmaschinen wird heute maßgeblich durch die intelligente Kombination von SEO und GEO-Strategien bestimmt. Wer die wichtigsten Maßnahmen umsetzt bleibt sowohl in Suchmaschinen als auch in KI-basierten Systemen präsent. Die Anforderungen an Unternehmen verändern sich durch die rasante Entwicklung von KI und LLMs: Es reicht nicht mehr, nur für Google zu optimieren. Entscheidend ist, die eigene Marke und Angebote auch in KI-generierten Antworten und Empfehlungen sichtbar zu machen. Wer jetzt handelt und seine Strategie ganzheitlich ausrichtet, sichert sich einen nachhaltigen Wettbewerbsvorteil in der lokalen Suche.  Hier findest du die passende Checkliste zum Thema FAQ - Häufig gestellte Fragen Wie kann ich herausfinden, ob mein lokales Unternehmen in KI-generierten Antworten bereits sichtbar ist? Um die Sichtbarkeit in KI-Antworten zu prüfen, empfiehlt es sich ein Prompt-Monitoring mit spezialisierten Tools einzurichten. Diese zeigen, ob und wie oft die eigene Marke oder Website in Antworten von LLMs wie ChatGPT oder Google AI Mode genannt wird oder sie als Quelle herangezogen wird. Welche Rolle spielen strukturierte Daten für die KI-Sichtbarkeit? Strukturierte Daten helfen KI-Modellen, Inhalte besser zu verstehen und korrekt auszuspielen. Sie sind besonders wichtig, um als Quelle für KI-Antworten berücksichtigt zu werden und sollten daher konsequent eingesetzt werden. Sind KI-optimierte Inhalte auch für klassische Suchmaschinen relevant? Ja, Inhalte, die für KI-Modelle optimiert sind – etwa durch semantische Struktur, FAQ-Markup und die Beantwortung echter Nutzerfragen – werden auch von klassischen Suchmaschinen besser verstanden und ausgespielt. Wir empfehlen für Prompts zu optimieren, die auf wichtigen SEO-Keywords basieren. So lässt sich local SEO und GEO optimal kombinieren. Wie oft sollte ich meine Inhalte aktualisieren, um für Suchmaschinen und LLMs relevant zu bleiben? Die Such- und KI-Landschaft entwickelt sich schnell. Es empfiehlt sich, die Prompt-Datenbank und dazu die wichtigsten Inhalte mindestens quartalsweise zu überprüfen und bei Bedarf zu aktualisieren, um neue Trends und Nutzerfragen frühzeitig zu adressieren. Der Zeitraum kann allerdings variieren und hängt davon ab, wie dynamisch sich die Branche weiterentwickelt. Welche Fehler sollte ich bei der lokalen Suchmaschinen- und KI-Optimierung vermeiden? Häufige Fehler sind unvollständige Unternehmensprofile, fehlende lokale Keywords, technische Strukturen, die auf JavaScript basieren und clientseitig gerendert werden, keine Integration von Nutzerfragen und das Vernachlässigen von Monitoring und KPIs.

Transparenz in Google Ads: So nutzt du das Performance Max Channel Reporting richtig

10.10.2025

Josephine

Treuter

Kategorie:

SEA

Banner für einen Blogbeitrag: Laptop buntes reporting Performance Max

Google Ads ist eine der effizientesten Möglichkeiten, um die Reichweite von Unternehmen zu steigern und gezielt Conversions zu erzielen. Doch in Zeiten von KI und Automatisierung verändert sich auch die Art, wie Kampagnen gesteuert und ausgewertet werden. Mit der Einführung der Performance Max Kampagnen hat Google einen neuen Ansatz geschaffen: Alle Kanäle, von Search über YouTube bis hin zu Shopping, werden in einer einzigen, vollautomatisierten Kampagne gebündelt. Das verspricht maximale Effizienz, erschwert jedoch gleichzeitig die Nachvollziehbarkeit, über welche Kanäle die Conversions tatsächlich generiert werden.  Lange war nicht ersichtlich, welcher Kanal welchen Beitrag zur Kampagnenleistung leistet. Wer diese Informationen brauchte, musste sich mit technischen Skripten und komplexen Workarounds behelfen - ein Aufwand, der viele Teams überforderte. Mit dem neuen Channel Performance Reporting ändert sich das grundlegend und es lassen sich die Ergebnisse kanalgenau auswerten. In diesem Artikel zeigen wir dir, wie du das neue Reporting richtig nutzt, welche Best Practices sich bereits bewährt haben und wie du mit mehr Transparenz bessere Entscheidungen triffst. Als erfahrene Google Ads Agentur geben wir dir praxisnahe Tipps direkt aus dem Alltag bei internetwarriors.   Das Wichtigste in Kürze   Performance Max bündelt alle Google-Kanäle in einer Kampagne. Das Channel Reporting sorgt jetzt für die nötige Transparenz. Du siehst, wie Search, Display, YouTube, Discover, Maps und Gmail einzeln performen.  Die Berichte lassen sich nach Anzeigenformat, Status oder Zielwerten wie CPA oder ROAS segmentieren.  Durch das neue Reporting kannst du Optimierungspotenziale schneller erkennen und gezielter steuern.  Der Statusbereich hilft bei technischen Problemen und bietet Handlungsempfehlungen.  Was genau ist eine Performance Max Kampagne?   Die Performance Max Kampagne , kurz PMax, ist ein automatisiertes Kampagnenformat in Google Ads, das seit 2021 verfügbar ist. Es ermöglicht die gleichzeitige Ausspielung von Anzeigen über mehrere Google-Kanäle wie Search, Display, YouTube, Gmail, Discover und Shopping und das alles in einer einzigen Kampagne.  Im Gegensatz zu klassischen Kampagnen übernimmt bei PMax die Google-KI die Ausspielung und Optimierung. Basierend auf Zielvorhaben wie Conversions oder Umsatz entscheidet das System selbstständig, welche Anzeige welchem Nutzer auf welchem Kanal gezeigt wird. Für Werbetreibende bedeutet das: weniger manuelle Steuerung, dafür mehr Fokus auf hochwertige Assets und strategische Zieldefinition.  Mit dem neuen Channel Performance Reporting wird nun endlich sichtbar, welcher Kanal welchen Beitrag zur Gesamtleistung leistet und das ist ein wichtiger Schritt hin zu mehr Transparenz und Kontrolle.  Warum Transparenz bei einer PMax so wichtig ist  Performance Max Kampagnen bieten viele Vorteile: Sie bündeln alle Google-Kanäle in einer einzigen Kampagne, nutzen KI zur automatisierten Ausspielung und versprechen maximale Effizienz. Doch gerade diese Automatisierung bringt eine zentrale Herausforderung mit sich: fehlende Transparenz. Lange war es kaum nachvollziehbar, über welchen Kanal eine Conversion tatsächlich zustande kam. Das war ein Problem für alle, die ihre Kampagnen datenbasiert optimieren möchten.  Ohne kanalgenaue Einblicke ist es schwierig, fundierte Entscheidungen zu treffen: Soll mehr Budget in YouTube oder in Search fließen? Funktionieren Videoanzeigen besser als Textanzeigen? Welche Zielgruppen performen auf welchen Plattformen? Die Antworten auf diese Fragen sind entscheidend für eine effektive Kampagnensteuerung und genau hier setzt das neue Channel Performance Reporting an.  Es schafft die nötige Transparenz, um die Leistung einzelner Kanäle zu bewerten, Optimierungspotenziale zu erkennen und Budgets gezielt zu steuern. Für Agenturen wie internetwarriors ist das ein wichtiger Schritt, um Kund*innen nicht nur Ergebnisse zu liefern, sondern auch nachvollziehbare Strategien zu entwickeln.  So findest du das Channel Reporting in deinem Google Ads Konto   Das neue Channel Performance Reporting für Performance Max befindet sich derzeit noch in der Beta-Phase. Das bedeutet, dass die Funktion schrittweise ausgerollt wird und nicht in jedem Google Ads Konto sofort verfügbar ist. Auch der Umfang der angezeigten Daten kann je nach Konto variieren, von grundlegenden Kanalmetriken bis hin zu detaillierten Conversion-Insights.  Wenn dein Konto bereits freigeschaltet ist, findest du das Reporting direkt in der Google Ads Oberfläche unter: Kampagnenübersicht → Performance Max Kampagne auswählen → Insights → Channel Performance  Dort erhältst du eine kanalgenaue Aufschlüsselung wichtiger Kennzahlen wie Impressionen, Klicks, Conversions, Kosten und ROAS. Die Ansicht lässt sich nach Zeitraum, Gerät oder Conversion-Ziel filtern und bietet eine wertvolle Grundlage für datenbasierte Optimierungen.  Was zeigt dir das Channel Reporting genau?   Das Channel Performance Reporting liefert eine strukturierte Übersicht über die Leistung einzelner Kanäle innerhalb einer Performance Max Kampagne. Es zeigt, wie sich die Kampagne auf Plattformen wie Search, Display, YouTube, Gmail, Discover und Shopping verteilt und welcher Kanal welchen Anteil an den erzielten Conversions hat. Diese Transparenz ermöglicht eine fundierte Bewertung der Budgetverteilung, identifiziert unterperformende Kanäle und unterstützt bei der Priorisierung zukünftiger Investitionen.  Darüber hinaus bietet das Reporting umfangreiche Segmentierungs- und Filtermöglichkeiten. Die Daten lassen sich nach Zielmetriken wie Cost per Acquisition (CPA), Return on Ad Spend (ROAS) oder Klickrate (CTR) analysieren. So entsteht ein ganzheitlicher Blick auf die Kampagnenleistung und das sowohl kanalübergreifend als auch datenbasiert und strategisch verwertbar.  Was aus den Daten gelernt werden kann   Das Channel Performance Reporting liefert weit mehr als nur Zahlen. Es eröffnet neue Perspektiven für die strategische Steuerung von Performance Max Kampagnen. Durch die kanalgenaue Aufschlüsselung von Kennzahlen wie Impressionen, Klicks, Conversions und Kosten wird sichtbar, welche Plattformen tatsächlich zur Zielerreichung beitragen und wie sich das eingesetzte Budget verteilt.  Diese Daten ermöglichen eine fundierte Bewertung der eingesetzten Anzeigenformate, der Zielgruppenansprache sowie der Geräteverteilung. Zudem lassen sich Rückschlüsse auf die Customer Journey ziehen und potenzielle Optimierungspotenziale identifizieren, wie etwa bei der Gestaltung von Assets oder der Budgetallokation.  Für Agenturen wie internetwarriors stellt diese Transparenz eine wertvolle Grundlage dar, um Kampagnen nicht nur effizient zu optimieren, sondern auch nachvollziehbar gegenüber Kund*innen zu kommunizieren.  So optimierst du deine Kampagnen mit den neuen Insights   Die kanalgenauen Daten aus dem Channel Performance Reporting bieten eine wertvolle Grundlage für die strategische Optimierung von Performance Max Kampagnen. Durch die Analyse der einzelnen Kanäle lässt sich erkennen, welche Plattformen besonders effizient arbeiten, wo Streuverluste entstehen und welche Anzeigenformate die besten Ergebnisse erzielen. Auf dieser Basis können Budgets gezielter verteilt, Assets passgenauer gestaltet und Zielgruppen differenzierter angesprochen werden.  Zudem ermöglichen die Insights eine präzisere Bewertung der Customer Journey: Werden Nutzer*innen über YouTube angesprochen, aber konvertieren erst über Search? Solche Muster lassen sich nun nachvollziehen und in die Kampagnenstruktur einfließen. Auch die Auswahl der Conversion-Ziele kann anhand der Daten neu bewertet werden, um die Kampagnenausrichtung noch stärker an den tatsächlichen Nutzerverhalten auszurichten.  Grenzen und Fallstricke des Channel Reportings   Auch wenn das Channel Performance Reporting einen wichtigen Schritt in Richtung Transparenz darstellt, sollten die aktuellen Limitationen und Fallstricke nicht außer Acht gelassen werden. Da sich das Feature derzeit noch in der Beta-Phase befindet, ist die Verfügbarkeit nicht flächendeckend gewährleistet und der Umfang der angezeigten Daten kann je nach Konto variieren. In einigen Fällen werden nur aggregierte Werte angezeigt, ohne tiefere Einblicke in einzelne Anzeigenformate oder Zielgruppen.  Zudem ist zu beachten, dass Performance Max kanalübergreifend arbeitet und die einzelnen Kanäle stehen nicht isoliert für sich, sondern wirken im Zusammenspiel. Ein Kanal mit vermeintlich schwacher Performance kann dennoch einen wichtigen Beitrag zur Conversion leisten, etwa durch frühzeitige Nutzeransprache im Funnel. Die Interpretation der Daten erfordert daher ein ganzheitliches Verständnis der Customer Journey und sollte nicht ausschließlich auf Einzelmetriken basieren.  Auch technische Einschränkungen wie unvollständige Conversion-Zuordnung, fehlende Asset-Daten oder eingeschränkte Segmentierungsmöglichkeiten können die Analyse erschweren. Für eine fundierte Bewertung empfiehlt sich daher eine Kombination aus Channel Reporting, Conversion-Tracking und ergänzenden Tools wie Google Analytics oder serverseitigem Tracking.  Fazit: Mehr Kontrolle, bessere Entscheidungen   Mit dem neuen Channel Performance Reporting wird ein entscheidender Schritt in Richtung Transparenz innerhalb von Performance Max Kampagnen vollzogen. Die Möglichkeit, kanalgenaue Daten direkt im Google Ads Interface auszuwerten, schafft eine fundierte Basis für strategische Entscheidungen und zielgerichtete Optimierungen. Auch wenn sich das Feature noch in der Beta-Phase befindet und nicht in jedem Konto vollständig verfügbar ist, zeigt sich bereits jetzt, wie wertvoll diese Insights für eine moderne Kampagnensteuerung sind.  Die Kombination aus Automatisierung und datenbasierter Kontrolle ermöglicht es, Budgets effizienter zu verteilen, Assets gezielter einzusetzen und die Customer Journey besser zu verstehen.   Für Agenturen wie internetwarriors bedeutet das: mehr Klarheit in der Analyse, bessere Argumente in der Kundenkommunikation und eine deutlich gesteigerte Effektivität im digitalen Marketing.  Als erfahrene Google Ads Agentur unterstützen wir dich dabei, das volle Potenzial deiner Performance Max Kampagnen auszuschöpfen. Wir helfen dir nicht nur bei der Einrichtung und Optimierung deiner Kampagnen, sondern auch beim gezielten Einsatz des neuen Channel Performance Reportings. So erhältst du klare Einblicke in die Leistung einzelner Kanäle, kannst Budgets sinnvoll verteilen und datenbasierte Entscheidungen treffen. Mit unserer Expertise in KI-gestütztem Kampagnenmanagement und kanalübergreifender Analyse sorgen wir dafür, dass deine Ads nicht nur performen – sondern auch transparent und nachvollziehbar sind. Melde dich bei uns!    

VKU- Marketing-Experts 2025 – KI im Fokus

08.10.2025

Axel

Zawierucha

Kategorie:

Inside internetwarriors

Banner für einen Blogbeitrag: VKU Marketing Experts 2025

Am 24. September 2025 war Berlin der Hotspot für Marketing-Experten aus der Kommunalwirtschaft. Der VKU-Marketing-Experts Kongress bot eine exzellente Plattform, um über die drängendsten Themen der Branche zu diskutieren.   Das Top-Thema in diesem Jahr: der unaufhaltsame Vormarsch der Künstlichen Intelligenz im Marketing. Als internetwarriors waren wir, vertreten durch unsere Experten Julien Moritz (SEO/GEO Experte) und Axel Zawierucha (Geschäftsführer), vor Ort, um unser Wissen zu teilen und neue Impulse mitzunehmen.  Der Wandel ist jetzt: KI als Game-Changer  Die Atmosphäre auf dem Kongress war von einer spürbaren Aufbruchsstimmung geprägt. In zahlreichen Vorträgen und Diskussionen wurde deutlich, dass KI nicht länger nur ein Buzzword, sondern ein handfestes Werkzeug ist, das Marketingstrategien revolutioniert.   Von personalisierter Kund*innenansprache über automatisierte Content-Erstellung bis hin zu datengestützten Prognosen – die Möglichkeiten scheinen endlos. Doch mit den neuen Chancen kommen auch neue Herausforderungen. Eine der zentralen Fragen, die in vielen Gesprächen aufkam, war: Wie schaffen es Unternehmen, in einer von KI-Systemen und Sprachmodellen (LLMs) geprägten digitalen Landschaft sichtbar zu bleiben und ihre Zielgruppen effektiv zu erreichen?    Unser Workshop: Sichtbarkeit im Zeitalter von KI  Genau dieser Frage widmeten wir uns in unserem interaktiven Workshop. Unter dem Titel „Sichtbarkeit in der KI-Ära: So positionieren Sie Ihr Unternehmen in den neuen Systemen“ gaben Julien Moritz und Axel Zawierucha praxisnahe Einblicke und strategische Tipps.   Das Interesse war überwältigend. In intensiven Diskussionen mit den Teilnehmenden wurde klar, dass viele Unternehmen nach Orientierung suchen, wie sie ihre Inhalte und Daten so aufbereiten können, dass sie von KI-basierten Such- und Empfehlungssystemen optimal erfasst und ausgespielt werden.  Wir zeigten auf, wie eine durchdachte Datenstrategie und die Optimierung von Inhalten für semantische Suchen den entscheidenden Unterschied machen können. Die vielen spannenden Fragen und die engagierte Teilnahme haben uns gezeigt, dass wir hier einen Nerv getroffen haben.    Wie wir als GEO-Spezialisten unterstützen können  Gerade im lokalen Kontext ist geografische Sichtbarkeit entscheidend. Als GEO-Spezialisten helfen wir dir dabei, deine Präsenz in lokalen Suchsystemen und Kartenanwendungen zu stärken – ein wichtiger Faktor, um auch in KI-gesteuerten Umgebungen gefunden zu werden. Mit strukturierten Standortdaten, Local SEO und der gezielten Einbindung in semantische Suchsysteme sorgen wir dafür, dass deine Angebote dort erscheinen, wo Deine Zielgruppe sucht – heute und in der KI-getriebenen Zukunft. Kontaktiere uns!  

DMEXCO 2025: CRM, KI und die Zukunft des Suchmaschinenmarketings

24.09.2025

Axel

Zawierucha

Kategorie:

Inside internetwarriors

Banner für einen Blogbeitrag: DMEXCO 2025 - Nachlese

Die DMEXCO 2025 in Köln war für uns bei internetwarriors.de mehr als nur eine Messe – sie war ein pulsierender Marktplatz der Ideen, ein Schmelztiegel der Innovationen und vor allem eine Bestätigung für die Themen, die uns und unsere Kund *innen tagtäglich bewegen. Mit einem Rekordandrang von über 40.000 Teilnehmer *innen und unter dem Motto "Be Bold. Move Forward." sandte die diesjährige Leitmesse des digitalen Marketings ein klares Signal aus: Die Zukunft gehört den Mutigen, den Vorreitern und denen, die bereit sind, neue Wege zu gehen. In unzähligen inspirierenden Gesprächen mit Kund*innen, Partner*innen und Branchenkolleg*innen hat sich für uns ein roter Faden herauskristallisiert, der die zentralen Herausforderungen und Chancen unserer Zeit miteinander verbindet: die untrennbare Verknüpfung von Customer-Relationship-Management (CRM), die Revolution durch Künstliche Intelligenz (KI) und die Neudefinition der Kampagnenplanung im Zeitalter generativer Modelle.  Das Fundament erfolgreicher Performance-Kampagnen: Die CRM-Feedbackschleife   Ein Thema, das in unseren Gesprächen auf der DMEXCO 2025 immer wieder in den Vordergrund trat, war die immense Bedeutung einer tiefen Integration von CRM-Systemen in Performance-Marketing-Kampagnen. Es ist eine Erkenntnis, die so simpel wie entscheidend ist: Wer erfolgreich Leads generieren will, darf nicht an der Oberfläche kratzen. Die bloße Generierung von Kontaktdaten ist nur die halbe Miete. Der wahre Wert entfaltet sich erst dann, wenn eine nahtlose Feedbackschleife zwischen Marketing und Vertrieb etabliert wird.  Genau hier kommt das CRM ins Spiel. Es ist das Herzstück, das alle relevanten Informationen über eine n potenzielle n Kund*in bündelt und uns verrät, was aus einem generierten Lead tatsächlich geworden ist. Wurde der Kontakt qualifiziert? Kam es zu einem Verkaufsgespräch? Wurde ein Vertrag abgeschlossen? Dieses Feedback ist pures Gold für die Optimierung von Performance-Kampagnen. Ohne diese Rückkopplung agieren wir im Blindflug. Wir sehen zwar, welche Anzeigen und Keywords Klicks und Konversionen generieren, aber wir wissen nicht, welche davon wirklich zu Umsatz führen.  Aus unserer langjährigen Erfahrung in der Praxis und den intensiven Gesprächen auf der Messe können wir eine klare Empfehlung aussprechen. Als offizieller Implementierungspartner von Teamleader in Deutschland haben wir tiefgreifende Einblicke in die Leistungsfähigkeit moderner CRM-Systeme. Wir sind überzeugt, dass Teamleader alle wichtigen Features vereint, um erfolgreich Business machen zu können. Von der zentralen Kontaktdatenbank über das Deal-Tracking und die Projektverwaltung bis hin zur Zeiterfassung und Rechnungsstellung bietet die Plattform eine All-in-One-Lösung, die speziell auf die Bedürfnisse von Agenturen und dienstleistungsorientierten KMUs zugeschnitten ist. Die nahtlose Integration ermöglicht genau jene wertvolle Feedbackschleife, die für datengetriebenes Marketing unerlässlich ist.  Die Diskussionen auf der DMEXCO haben gezeigt, dass Unternehmen, die diese Schleife erfolgreich geschlossen haben, ihre Marketingbudgets deutlich effizienter einsetzen. Sie können ihre Kampagnen gezielt auf die Kanäle und Zielgruppen ausrichten, die die wertvollsten Kund*innen liefern. In einer Zeit, in der die Kosten für digitale Werbung stetig steigen und der Wettbewerb intensiver wird, ist diese datengestützte Präzision kein "Nice-to-have" mehr, sondern ein absolutes Muss für nachhaltigen Erfolg.  Google im Wandel: Die Zukunft der Suche im Zeitalter der KI   Natürlich war auch die KI Zukunft und die von Google und der organischen Suche eines der alles beherrschenden Themen in den Kölner Messehallen. Die Ära der rein keyword-basierten Suche neigt sich dem Ende zu. Generative KI-Modelle und die zunehmende Integration von KI in die Suchergebnisseiten (SERPs) läuten einen Paradigmenwechsel ein. Die Frage, die sich alle stellen, lautet: Wie wird sich die Suche verändern und was bedeutet das für unsere SEO- und SEA-Strategien?  Die Keynotes und Fachvorträge auf der DMEXCO zeichneten ein klares Bild: Die Suche wird kontextueller, dialogorientierter und persönlicher. Nutzer*innen erwarten nicht mehr nur eine Liste von Links, sondern direkte Antworten und Lösungen für ihre Anliegen. Googles "Search Generative Experience" (SGE) ist hier nur der Anfang. Die Fähigkeit, komplexe Anfragen zu verstehen und in ganzen Sätzen zu beantworten, wird die Art und Weise, wie wir nach Informationen suchen, fundamental verändern.  Für uns als Agentur bedeutet das, dass wir unsere Content-Strategien anpassen müssen. Es geht nicht mehr nur darum, einzelne Keywords zu optimieren, sondern umfassende Themenwelten zu schaffen, die die Fragen der Nutzer* innen ganzheitlich beantworten. "Topical Authority" wird zur neuen Währung im SEO. Wir müssen die Experten für unsere Nische werden und Inhalte erstellen, die sowohl für den die Nutzer*in als auch für die KI-gestützten Algorithmen einen echten Mehrwert bieten.  Gleichzeitig eröffnen sich durch die KI auch neue Möglichkeiten für die bezahlte Suche. Performance-Max-Kampagnen sind ein gutes Beispiel dafür, wie Google KI nutzt, um die Ausspielung von Anzeigen über das gesamte Google-Netzwerk hinweg zu automatisieren und zu optimieren. Die Herausforderung für uns Marketer besteht darin, der KI die richtigen Signale zu geben – und hier schließt sich wieder der Kreis zum CRM. Je besser die Daten sind, die wir der KI zur Verfügung stellen, desto präziser kann sie arbeiten und desto besser werden die Ergebnisse sein.  Die Revolution der Kampagnenplanung: Generative KI als kreativer Partner   Die vielleicht greifbarste Veränderung, die die KI mit sich bringt, erleben wir derzeit in der Kreation und Planung von Kampagnen. Generative KI-Tools für die Erstellung von Texten, Bildern und sogar Videos waren auf der DMEXCO allgegenwärtig. Diese Technologien haben das Potenzial, unsere Arbeitsprozesse von Grund auf zu verändern. Sie ermöglichen es uns, in kürzerer Zeit eine größere Vielfalt an Werbemitteln zu erstellen und A/B-Tests in einem bisher ungekannten Ausmaß durchzuführen.  Doch die wahre Revolution liegt nicht nur in der Effizienzsteigerung. Generative KI kann auch als kreativer Sparringspartner dienen, der uns neue Ideen und Perspektiven liefert. Sie kann uns dabei helfen, Zielgruppen noch besser zu verstehen und personalisierte Ansprachen zu entwickeln, die genau auf die Bedürfnisse des Einzelnen zugeschnitten sind.  Die Gespräche auf der Messe haben jedoch auch gezeigt, dass die menschliche Komponente dabei nicht zu kurz kommen darf. Die KI ist ein mächtiges Werkzeug, aber sie ersetzt nicht die strategische Planung, die kreative Vision und das Markenverständnis, das erfahrene Marketingexperten auszeichnet. Die Kunst wird darin bestehen, die Stärken von Mensch und Maschine optimal zu kombinieren. Die KI liefert die Daten und die Skalierung, der Mensch die Strategie und die emotionale Intelligenz.  Fazit: Mutig voranschreiten in eine datengestützte Zukunft   Unsere Zeit auf der DMEXCO 2025 hat uns in unserer Überzeugung bestärkt: Die Zukunft des digitalen Marketings ist datengestützt, KI-getrieben und kund*innenzentriert. Die Silos zwischen Marketing, Vertrieb und Service müssen endgültig eingerissen werden. Eine integrierte Sicht auf dendie Kund*in, ermöglicht durch ein leistungsstarkes CRM-System, ist das Fundament für alles Weitere.  Die Entwicklungen im Bereich der Künstlichen Intelligenz sind keine ferne Zukunftsmusik mehr, sondern prägen schon heute das KI im Unternehmen . Es gilt, diese Technologien mutig anzunehmen, ihre KI Chancen zu erkennen und sie intelligent in unsere Strategien zu integrieren. Die DMEXCO 2025 war ein Weckruf für alle, die noch zögern. Der Wandel ist da, und er wartet nicht. Wir bei internetwarriors.de sind bereit, diesen Wandel aktiv mitzugestalten und gemeinsam mit unseren Kund*innen die Chancen zu ergreifen, die er uns bietet. Denn wie das Motto der DMEXCO schon sagte: Es ist an der Zeit, mutig zu sein und voranzuschreiten.   Sie wollen den Wandel im digitalen Marketing gemeinsam mit uns vorantreiben? Dann lassen Sie uns jetzt die nächsten Schritte gehen – datengetrieben, kreativ und mutig. Wir sind bereit. Sind Sie es auch?

Weitere Beiträge anzeigen

2026 und das Zeitalter der Agentic Search - Wenn Kunden keine Menschen mehr sind

14.01.2026

Axel

Zawierucha

Kategorie:

Growth Marketing

Hier findest du alle Teile unserer Blogserie: Teil 1 -  Warum "Zero-Sum" ein Irrtum ist und die Suche gerade erst beginnt | findest du hier Teil 2 - Das "December 2025 Core Update" und wie man die Sichtbarkeit zurückgewinnt | findest du hier Teil 3 - Werben im Zeitalter der Konversation – Warum Keywords nicht mehr genügen | findest du hier ————— Blogserie: Die Transformation der Suche 2026 (Teil 4/4)   Willkommen in der Zukunft. Oder besser gesagt: Willkommen in der Gegenwart des Jahres 2026.  In den vorangegangenen Teilen haben wir den Traffic-Crash analysiert und die neuen Werbetools beleuchtet. Zum Abschluss dieser Serie wagen wir den Blick auf das, was gerade entsteht: Das "Agentic Web".  Die größte Veränderung, die uns bevorsteht, ist nicht, wie Menschen suchen, sondern wer sucht. Wir erleben den Übergang von der Informationsbeschaffung zur Aufgaben-Erledigung.  "Preferred Sources": Die Demokratisierung des Algorithmus   Beginnen wir mit einer Technologie, die bereits da ist und SEO für immer verändern wird: "Preferred Sources".  Ende 2025 rollte Google dieses Feature global aus. Nutzer*innen können nun aktiv Nachrichtenquellen und Publisher markieren (mit einem Stern), die sie bevorzugen.  Warum ist das revolutionär?  Bisher war SEO ein technischer Kampf gegen einen anonymen Algorithmus. Jetzt wird Brand Loyalty zum direkten Rankingfaktor. Wenn Nutzer*innen deiner Seite als "Preferred Source" markiert, erhalten deine Inhalte einen permanenten Boost in seinem Feed – völlig unabhängig davon, was das nächste Core Update sagt.  Das bedeutet:  Community > Keywords: Eine kleine, loyale Fanbasis ist wertvoller als breiter, volatiler Traffic.  Trust als Metrik: Du musst deine Nutzer*innen aktiv dazu motivieren, deine Marke als bevorzugte Quelle zu wählen. Das ist der neue Newsletter-Signup.  "Live with Search": Die Welt durch die Kamera sehen   SEO war bisher textbasiert. Mit "Live with Search" wird es multimodal.  Nutzer*innen können nun via Kamera und Sprache in Echtzeit mit Google interagieren. Ein Nutzer filmt ein Regal im Baumarkt und fragt: "Welcher dieser Dübel hält in einer Rigips-Wand?".  Dank des neuen Gemini Native Audio Modells antwortet Google flüssig, wie ein menschlicher Berater im Ohr.  Die Implikation für Marken: Ihre Produkte müssen visuell identifizierbar sein. Verpackungsdesign wird zu SEO. Und: deine Website muss Fragen beantworten, die man stellt, während man das Produkt ansieht, nicht nur, während man danach sucht.  "Agentic Search": Vom Suchen zum Erledigen   Der Begriff des Jahres 2026 lautet "Agentic Search".  Ein KI-Agent (Agent) ist mehr als ein Chatbot. Ein Chatbot gibt Informationen. Ein Agent handelt.  Suche 2024: "Zeig mir Flüge nach London."  Agentic Search 2026: "Buche mir den günstigsten Flug nach London am Freitag, nimm meinen bevorzugten Sitzplatz am Gang und trag es in meinen Kalender ein."  Experten prognostizieren, dass der Markt für KI-Agenten bis 2030 auf über 50 Milliarden Dollar explodieren wird. Für uns bei internetwarriors.de bedeutet das eine radikale Umstellung der "Search Everywhere Optimization" (SEO).  Wenn dein "Besucher" ein Bot ist, braucht er kein schönes Design. Er braucht APIs, klare Schema.org-Strukturen und fehlerfreie Logik. Wir optimieren Websites nicht mehr nur für menschliche Augen, sondern für maschinelle Aktoren.  Gemini in Translate: Der globale Wettbewerb   Zu guter Letzt fällt die letzte Bastion: Die Sprachbarriere.  Mit der Integration von Gemini in Google Translate werden Übersetzungen kontextsensitiv und kulturell nuanciert. Ein US-Shop kann dank Echtzeit-Übersetzung plötzlich den deutschen Markt bedienen, als wäre er lokal ansässig.  Für deutsche Unternehmen bedeutet das: Der Wettbewerb wird global. Aber auch Ihre Chancen werden global.  Fazit: Das Jahr der Entscheidung   Die Transformation der Suche 2026 ist keine Bedrohung für diejenigen, die Qualität bieten.  Redundante Informationen sterben aus (Dezember-Update).  Transaktion und Expertise gewinnen (Liz Reid Theorie).  Werbung wird intelligent und kontextbasiert (AI Max).  Markenbindung schlägt Algorithmus (Preferred Sources).  Bei internetwarriors sind wir bereit für diese Ära. Wir helfen dir, nicht nur gefunden zu werden, sondern gewählt zu werden – von Menschen und von Agenten.  Lass uns gemeinsam deine Strategie für 2026 besprechen. Vereinbare jetzt einen Termin .  

Werben im Zeitalter der Konversation – Warum Keywords nicht mehr genügen

13.01.2026

Axel

Zawierucha

Kategorie:

Growth Marketing

Hier findest du alle Teile unserer Blogserie: Teil 1 -  Warum "Zero-Sum" ein Irrtum ist und die Suche gerade erst beginnt | findest du hier Teil 2 - Das "December 2025 Core Update" und wie man die Sichtbarkeit zurückgewinnt | findest du hier Teil 4 - 2026 und das Zeitalter der Agentic Search - Wenn Kunden keine Menschen mehr sind | findest du hier ————— Blogserie: Die Transformation der Suche 2026 (Teil 3/4)   In den ersten beiden Teilen dieser Serie haben wir die wirtschaftliche Theorie hinter Googles Transformation ("Expansionary Moment") und die brutale Realität des Dezember-Updates für SEOs analysiert. Doch während SEOs noch Wunden lecken, müssen SEA-Manager*innen (Search Engine Advertising) ihre Waffen neu schmieden.  Das Jahr 2026 markiert das Ende der klassischen Keyword-Dominanz. Mit der Einführung von "AI Max for Search" und der Öffnung des "AI Mode" für Werbung hat Google die Spielregeln der Monetarisierung grundlegend geändert. Wer heute noch versucht, exakte Keywords ("Exact Match") gegen eine KI zu bieten, kämpft mit Pfeil und Bogen gegen Drohnen.  In diesem Artikel dekonstruieren wir die neue Werbe-Infrastruktur und zeigen, wie du Anzeigen in einer Welt schaltest, in der Nutzer*innen nicht mehr suchen, sondern sich unterhalten.  AI Max: Der "Intent Engine" ersetzt das Keyword   Lange Zeit war "Performance Max" (PMax) das Allheilmittel für Googles Inventar. Doch für reine Suchkampagnen gab es eine Lücke. Diese wird nun durch "AI Max for Search" geschlossen, ein Tool, das Google als "One-Click Power-Up" vermarktet.  Das Problem mit Keywords   Stell dir vor, Nutzer*innen suchen: "Ich brauche ein Auto für 3 Kinder und einen Hund, das elektrisch fährt und unter 50.000 Euro kostet."  Früher musstes du auf Kombinationen wie "Elektro SUV", "Familienauto günstig" oder "7-Sitzer" bieten. Es musste also geraten werden, was die Nutzer*innen eingeben.    AI Max dreht dieses Prinzip um. Es analysiert nicht die Wörter (Strings), sondern die Absicht (Intent).  Wie AI Max funktioniert   AI Max nutzt deine Website und Ihre Assets als Basis. Wenn Nutzer*innen die oben genannte komplexe Anfrage stellt, versteht die KI den Kontext ("Familie + Platzbedarf + Budgetgrenze"). Sie scannt Ihre Landing Page, findet Ihr Modell "E-Family Van", generiert dynamisch eine passende Headline (z.B. "Der perfekte E-Van für Ihre 5-köpfige Familie") und spielt die Anzeige aus – selbst wenn du das Keyword "Hund" nie gebucht hast.  Die Ergebnisse sprechen eine deutliche Sprache: Beta-Tests zeigen eine Steigerung der Conversions um 27% bei ähnlichem CPA (Cost per Acquisition) im Vergleich zu reinen Keyword-Kampagnen.  Strategischer Rat: Keywords werden zu bloßen "Signalen". Ihre Landing Page und Ihre Creative Assets (Bilder, Texte) werden zum eigentlichen Targeting. Wenn Ihre Landing Page die Frage nicht beantwortet, kann AI Max keine Anzeige generieren.  Der "AI Mode": Anzeigen in der Unterhaltung   Der "AI Mode" ist Googles Antwort auf ChatGPT und Perplexity – eine rein konversationelle Oberfläche, die komplexe, mehrstufige Anfragen bewältigt. Die entscheidende Frage für Advertiser war lange: Wo ist hier Platz für Werbung?  Die Antwort lautet: Sponsored Responses .  Integration statt Unterbrechung   Im Gegensatz zur klassischen Suche, wo Anzeigen oft als Störfaktor wahrgenommen werden, integriert Google Anzeigen im AI Mode nahtlos in den Dialog.  Szenario: Nutzer*innen planen eine Reise nach Tokio und fragt den AI Mode nach Hotels in der Nähe des Shibuya Crossing mit Pool.  Werbung: Statt eines Banners erscheint Ihr Hotel als Teil der Antwort, markiert als "Gesponsert", inklusive Bild und direktem Buchungslink.  Da Anfragen im AI Mode "2x bis 3x länger" sind als in der klassischen Suche, erhält der Algorithmus wesentlich mehr Kontextsignale. Das ermöglicht ein Targeting von bisher unerreichter Präzision. Ein Nutzer, der so spezifisch fragt, befindet sich tief im Funnel. Die Klickrate mag sinken, aber die Conversion-Rate steigt.  Die neue Währung: Assets   Um in AI Max und AI Mode stattzufinden, benötigst du "Rohmaterial". Die KI baut die Anzeige in Echtzeit zusammen. Das bedeutet für dich:  Visuelle Exzellenz: Du brauchst hochwertige Bilder und Videos. AI Max priorisiert visuelle Elemente, um "Rich Cards" im Chat zu erstellen.  Strukturierte Daten: Dein Produkt-Feed (Merchant Center) muss makellos sein. Die KI muss wissen, ob der Schuh "wasserdicht" ist, um ihn auf die Frage "Laufschuhe für Regen" ausspielen zu können.  Broad Match + Smart Bidding: Dies ist die technische Voraussetzung. "Exact Match" schneidet dich von den neuen KI-Oberflächen ab. Du müsstest dem Algorithmus die Leine lassen (Broad Match), ihn aber über das Ziel (Smart Bidding auf ROAS/CPA) steuern.  Fazit für Teil 3   Wir bewegen uns von einer "Search Engine" zu einer "Answer Engine". Werbung muss zur Antwort werden. Werbebanner sterben aus; hilfreiche, kontextsensitive Produktvorschläge übernehmen.  Wird deine Keyword-Listen nicht weg, aber behandeln sie als das, was sie sind: Relikte aus einer Zeit, als wir noch in "Telegrafensprache" mit Maschinen sprachen.  Benötigen Sie Hilfe bei der Umstellung auf AI Max? Das SEA-Team von internetwarriors auditiert Ihr Konto und macht es fit für 2026.  

Das "December 2025 Core Update" und wie man die Sichtbarkeit zurückgewinnt

12.01.2026

Axel

Zawierucha

Kategorie:

Growth Marketing

Blogartikel Banner - Darstellung eines Pendels und das Thema

Hier findest du alle Teile unserer Blogserie: Teil 1 -  Warum "Zero-Sum" ein Irrtum ist und die Suche gerade erst beginnt | findest du hier Teil 3 - Werben im Zeitalter der Konversation – Warum Keywords nicht mehr genügen | findest du hier Teil 4 - 2026 und das Zeitalter der Agentic Search - Wenn Kunden keine Menschen mehr sind | findest du hier ————— Blogserie: Die Transformation der Suche 2026 (Teil 2/4) Während Liz Reid in Interviews die wirtschaftliche Stabilität der Google-Suche betonte, spielten sich in den Serverräumen und Marketingabteilungen weltweit Dramen ab. Das "December 2025 Core Update" wird als eines der volatilsten und härtesten Updates in die Geschichte eingehen. Es war nicht nur eine Korrektur; es war ein Systemwechsel.  In diesem zweiten Teil analysieren wir die forensischen Daten des Updates, erklären, warum "Redundanz" das neue "Spam" ist, und zeigen dir mit dem neuen Feature "Preferred Sources" einen Ausweg aus der Abhängigkeit.  Holiday Havoc: Das Timing des Schreckens   Das Update begann am 11. Dezember 2025 um 9:25 Uhr PT und zog sich bis zum 1. Januar 2026 hin. Für E-Commerce und werbefinanzierte Publisher war dieses Timing – mitten im umsatzstärksten Quartal – der "Holiday Havoc". Die Auswirkungen waren brutal und sofort messbar:  Traffic-Kollaps: Hunderte von Webseitenbetreibern meldeten Rückgänge der täglichen Besucherzahlen zwischen 70% und 85% .  Discover ist tot (für viele): Besonders hart traf es Google Discover. Ein Publisher dokumentierte einen Rückgang der Impressionen um 98% innerhalb weniger Tage vor der offiziellen Ankündigung. Da Discover für viele News-Seiten mittlerweile bis zu zwei Drittel des Traffics ausmachte, kam dies einer Existenzbedrohung gleich.  Volatilitäts-Index: Der SISTRIX Update Radar verzeichnete am Tag der Ankündigung einen Wert von 3.54 – ein massiver Ausschlag, der weit über normalen Schwankungen liegt.  Die "Zweite Welle": Warum es zweimal weh tat   Unsere Analysen bei internetwarriors zeigen ein ungewöhnliches Muster. Nach dem initialen Absturz am 11. Dezember gab es eine trügerische Ruhe, gefolgt von einer "Zweiten Welle" der Volatilität um den 20. Dezember.  Wir interpretieren dies als zweistufigen Filterprozess:  Phase 1 (Inhalt): Der Algorithmus scannte auf statische Qualitätsmerkmale und vor allem auf Redundanz.  Phase 2 (User Signals): In der zweiten Welle wurden die Nutzerdaten der neuen AI Overviews ausgewertet. Seiten, die zwar noch rankten, aber im Vergleich zur KI-Antwort keine Klicks oder hohe Absprungraten generierten, wurden nachträglich abgewertet.  Das neue Ranking-Gift: Redundanz   Warum hat es so viele etablierte Seiten getroffen? Die Antwort liegt in der Natur der AI Overviews. Früher war eine Seite wertvoll, wenn sie Informationen gut zusammenfasste. Heute macht das die KI.  Das Dezember-Update bestrafte Redundanz.  Wenn Ihre Seite lediglich Fakten wiederholt, die im "Knowledge Graph" von Google bereits vorhanden sind (z.B. "Wie groß ist Liz Reid?"), ist Ihre Seite technisch überflüssig. Sie bieten keinen Mehrwert gegenüber der KI.  Google hat seine "Helpful Content"-Signale nun fest in den Kern-Algorithmus integriert. "Helpful" bedeutet heute: Bietet diese Seite eine Perspektive, eine Erfahrung oder Daten, die die KI nicht halluzinieren oder aggregieren kann?  Der Hoffnungsschimmer: "Preferred Sources"   Doch Google nahm nicht nur, Google gab auch. Parallel zum Update und der Volatilität rollte Google das Feature "Preferred Sources" global aus.  Dies ist vielleicht die wichtigste strategische Neuerung für 2026.  Was ist es? Nutzer*innen können in den Sucheinstellungen oder direkt bei den "Top Stories" ihre bevorzugten Nachrichtenquellen markieren (durch einen Stern).  Der Effekt: Inhalte dieser Quellen erhalten einen permanenten Ranking-Boost im persönlichen Feed der Nutzer*innen und erscheinen in einer eigenen Sektion "From your sources".  Das ändert die Spielregeln der SEO fundamental. Bisher war SEO ein Kampf um den Algorithmus. Ab jetzt ist es auch ein Kampf um Brand Loyalty. Ein kleiner Nischen-Blog kann die großen Verlage ausstechen, wenn er eine loyale Community hat, die ihn aktiv als "Preferred Source" markiert.  Wir sehen hier eine Demokratisierung des Algorithmus: Die Nutzer*innen entscheidet mit, wer rankt, nicht nur die KI.  Ihre Überlebensstrategie für Q1 2026   Basierend auf diesen Daten empfehlen wir unseren Kund*innen folgende Sofortmaßnahmen:  Redundanz-Audit: Überprüfe deinen Content. Wenn du einen Artikel hast, der von ChatGPT in 10 Sekunden genauso gut geschrieben werden könnte, lösche oder überarbeite ihn. Füge exklusive Daten, Expertenmeinungen oder Videos hinzu.  Die "Star"-Kampagne: Starte Kampagnen, um die Nutzer*innen dazu zu bringen, dichals "Preferred Source" zu markieren. Erklären den User*innen, wie es geht. Das ist der neue Newsletter-Signup.  Diversifizierung: Verlasse dich nicht allein auf Google Discover. Der 98%-Absturz zeigt, wie volatil dieser Kanal ist.   Das Dezember-Update war schmerzhaft, aber es hat den Markt bereinigt. Wer jetzt noch steht, hat Substanz. Doch wie monetarisiert man diese Substanz in einer Welt, in der Keywords an Bedeutung verlieren? In Teil 3 unserer Serie tauchen wir tief in die neue Werbewelt von AI Max und AI Mode ein und zeigen dir, wie Anzeigen geschaltet werden, wenn keiner mehr sucht. 

Warum "Zero-Sum" ein Irrtum ist und die Suche gerade erst beginnt

09.01.2026

Axel

Zawierucha

Kategorie:

Growth Marketing

Banner Blogserie Transformation der Suche

Hier findest du alle Teile unserer Blogserie: Teil 2 - Das "December 2025 Core Update" und wie man die Sichtbarkeit zurückgewinnt | findest du hier Teil 3 - Werben im Zeitalter der Konversation – Warum Keywords nicht mehr genügen | findest du hier Teil 4 - 2026 und das Zeitalter der Agentic Search - Wenn Kunden keine Menschen mehr sind | findest du hier ————— Blogserie: Die Transformation der Suche 2026 (Teil 1/4)   Wenn wir auf das Jahr 2025 zurückblicken, sehen wir ein Schlachtfeld. Es war das Jahr, in dem die theoretischen Diskussionen über KI im Marketing plötzlich blutiger Ernst wurden. Es war das Jahr, in dem Publisher Panik bekamen, Börsenkurse wackelten und Google-Vizepräsidentin Liz Reid im Wall Street Journal einen Satz sagte, der in die Geschichte des digitalen Marketings eingehen wird: "We are in an expansionary moment."   Für viele unserer Kund*innen bei internetwarriors. fühlte es sich im Dezember 2025 jedoch nicht nach Expansion an, sondern nach Kontraktion. Doch die Daten zeigen ein komplexeres Bild. In diesem ersten Teil unserer vierteiligen Serie zum Jahresauftakt 2026 analysieren wir die makroökonomische Ebene der "neuen Suche". Wir dekonstruieren Googles Strategie und erklären, warum das klassische SEO-Denken in "Klicks" einem neuen Denken in "Transaktionen" weichen muss.  Die Angst vor dem Nullsummenspiel   Bis Ende 2025 dominierte in der SEO-Branche eine einfache, angstgetriebene Rechnung: Das "Nullsummenspiel" (Zero-Sum Game). Die Logik dahinter schien unwiderlegbar: Wenn eine KI (sei es ChatGPT, Perplexity oder Google AI Overviews) die Antwort direkt gibt, klicken Nutzer*innen nicht mehr auf die Website.  1 KI-Antwort = 1 verlorener Klick für den Publisher  Ergo: Das Ökosystem schrumpft  Diese Angst war der Treibstoff für die Volatilität, die wir Ende des Jahres sahen. Doch im Dezember 2025 trat Liz Reid, VP of Search bei Google, in einem viel beachteten Interview mit dem Wall Street Journal dieser These entgegen. Ihre Kernaussage: Wir betrachten den Kuchen als statisch, während er in Wahrheit wächst. Die Theorie des "Expansionary Moment"   Reid argumentierte, dass wir uns in einem "expansionary moment" befinden. Durch die Fähigkeit der KI, komplexere Fragestellungen zu verarbeiten ("Plan mir eine 3-tägige Reise nach Paris mit Kindern unter 500 Euro"), entsteht eine induzierte Nachfrage (Induced Demand).  Früher hätten Nutzer*innen diese komplexe Frage in zehn einzelne Suchanfragen zerlegt – oder sie gar nicht erst gestellt, weil sie wussten, dass Google daran scheitern würde. Heute stellen sie die Frage.  Das Paradoxon, das Reid beschreibt, ist entscheidend für Ihre Marketing-Strategie 2026:  "Making these things easier causes people to ask more questions... to get more help."   Selbst wenn die Klickrate (CTR) pro einzelner Suchanfrage sinkt, weil die KI die Antwort liefert, steigt das totale Suchvolumen so massiv an, dass der absolute Traffic stabil bleibt oder sogar wächst. Reid betont: "Those two things end up balancing out."   Für die Webseitenbetreiber*innen bedeutet das: Der Traffic wird nicht verschwinden, aber er wird sich verlagern. Die einfachen Fragen ("Wie hoch ist der Eiffelturm?") sind für Sie verloren. Die komplexen Fragen ("Welches Hotel in Paris bietet Babysitting und liegt zentral?") werden explodieren.  Das "Schuh-Paradoxon": Information vs. Transaktion   Einer der wichtigsten strategischen Hinweise für 2026 versteckt sich in Reids "Schuh-Beispiel". Auf die Frage nach der Bedrohung des Geschäftsmodells antwortete sie trocken:  "If the ads are for shoes, you might get an answer on AI overviews, but you still have to buy the shoes. None of the AIs substitute the need for the actual pair of shoes." Dieser Satz ist Gold wert. Er zieht eine harte Trennlinie durch das Internet:  Informations-Arbitrage (Gefährdet): Webseiten, die nur Informationen von anderen aggregieren (z.B. "Die 10 besten Laufschuhe"), werden durch die KI ersetzt. Die KI ist der bessere Aggregator.  Transaktions-Ursprung (Sicher): Webseiten, die das Ding an sich haben (den Schuh, das Hotelzimmer, die Dienstleistung), sind unersetzbar.  Für unsere Kunden*innen bei den internetwarriors bedeutet das: Wenn dein Geschäftsmodell darauf basiert, Traffic abzufangen und weiterzuleiten, ohne eigenen Mehrwert zu bieten, war 2025 dein letztes gutes Jahr. Wenn du aber das Produkt oder die Expertise besitzt , beginnt jetzt deine goldene Ära.  Die Stabilität der Werbeeinnahmen: Ein Blick in die Bücher   Viele Analysten erwarteten, dass Googles Werbeeinnahmen einbrechen würden, wenn Nutzer*innen weniger klicken. Doch die Zahlen zeigen Stabilität. Liz Reid bestätigte, dass die Werbeeinnahmen im Umfeld von AI Overviews "relativ stabil" geblieben sind.  Warum? Weil die neuen Suchanfragen im AI Mode (dazu mehr in Teil 3) oft 2- bis 3-mal länger sind als klassische Keywords.1  Längere Anfragen bedeuten mehr Kontext. Mehr Kontext bedeutet präziseres Targeting.  Nutzer*innen, welche "Laufschuhe" suchen, stöbert vielleicht nur.  Nutzer*innen, die "Laufschuhe für Marathon unter 3 Stunden bei Regen" suchen, haben die Kreditkarte schon in der Hand.  Die Klicks werden weniger, aber sie werden wertvoller. Wir bewegen uns von einer Ökonomie der Aufmerksamkeit (Traffic) zu einer Ökonomie der Absicht (Intent).  Fazit und Ausblick   Das Jahr 2025 hat uns gelehrt, dass Google bereit ist, sein eigenes Kerngeschäft zu kannibalisieren, um im KI-Rennen vorne zu bleiben. Für Unternehmen bedeutet das: Keine Panik vor dem Traffic-Verlust bei einfachen Keywords. Konzentrieren Sie sich auf die komplexen Fragen und die Transaktion.  Doch während die Führungsebene bei Google von Expansion spricht, sah die Realität für viele SEOs im Dezember 2025 anders aus. Im nächsten Teil dieser Serie analysieren wir das "December 2025 Core Update" – ein algorithmisches Blutbad, das genau diese neue Realität erzwungen hat.  Hast du Fragen zu deiner Traffic-Entwicklung 2025? Das internetwarriors Team analysiert gerne deine Daten und hilft dir, die neuen Chancen zu nutzen.  

Google AI Mode: Neue Regeln für Sichtbarkeit – Empirische Studie 11/2025

24.11.2025

Moritz

Klussmann

Kategorie:

SEO

Banner Google AI Mode Studie

Es gibt Momente im digitalen Marketing, in denen sich die Spielregeln nicht nur leicht anpassen, sondern komplett neu geschrieben werden. Wir befinden uns genau jetzt in einem solchen Moment. Seit Oktober 2025 ist der Google AI Mode in Deutschland verfügbar und er ist Googles Antwort auf ChatGPT. Viele Marketer*innen und SEOs haben darauf gewartet, doch die Realität trifft viele härter als erwartet.  Einleitung: Das SEO-Beben, das wir kommen sahen  Jahrelang galt das Mantra: "Optimiere für die Top 3, und der Traffic gehört dir." Doch unsere neueste empirische Studie bei internetwarriors zeigt ein anderes Bild. Ein Bild, das für traditionelle SEO-Strategien beunruhigend, für anpassungsfähige Unternehmen aber voller Chancen steckt.  Die wichtigste Erkenntnis vorab: Ein Top-Ranking in der klassischen Google-Suche ist keine Garantie mehr, um in den Large Language Models (LLMs) stattzufinden. Tatsächlich zeigt unsere Datenanalyse, dass über 60 % der Quellen, die der AI Mode zitiert, nicht einmal in den Top 50 der organischen Suche auftauchen.  Was bedeutet das für deine Sichtbarkeit bei Google ? Es bedeutet, dass wir SEO neu denken müssen. In diesem Artikel tauchen wir tief in unsere Analyse von über 3.000 URLs ein und zeigen dir, wie du deine Strategie anpassen musst, um im Zeitalter der AI Search nicht unsichtbar zu werden.  Die Studie: Ein Blick unter die Haube der KI  Bevor wir zu den strategischen Implikationen kommen, ist es wichtig, die Datengrundlage zu verstehen. Wir wollten uns nicht auf Bauchgefühle verlassen, sondern empirische Fakten schaffen.  Unser Studien-Setup:  Wir haben eine umfassende Analyse durchgeführt, die folgende Parameter umfasste:  Umfang: 240 verschiedene Prompts (Suchanfragen).  Vielfalt: 12 unterschiedliche Branchen, von E-Commerce und Pharma bis hin zu Finanzen und Energie.  Datenbasis: Insgesamt wurden 3.109 URLs identifiziert und analysiert, die von der Google AI als Quellen (Citations) ausgegeben wurden.  Ziel: Wir wollten wissen, welche Typen von Websites verlinkt werden, welche Content-Formate gewinnen und wie stark die Überschneidung zur klassischen Suche ist.  Die Methodenübersicht unserer Studie Diese Datenbasis liefert uns den bisher klarsten Blick darauf, wie Google im AI Mode Informationen auswählt und präsentiert.  Der Schock für klassisches SEO: Die 60%-Lücke  Dies ist der Punkt, an dem wir uns ehrlich machen müssen: Das klassische SEO Playbook hilft nur noch bedingt, um die Sichtbarkeit im AI Mode zu erhöhen.  Unsere quantitativen Analysen förderten eine Statistik zutage, die jeden SEO-Manager aufhorchen lassen muss:  "Über 60% der Citations im AI Mode sind NICHT in den Google Top 50 Ergebnissen der klassischen Suche zu finden."   Lass uns das kurz sacken lassen. Selbst wenn du extrem viel Budget und Zeit investiert hast, um für ein Keyword auf Seite 1, 2 oder 3 zu ranken – die KI ignoriert dich in mehr als der Hälfte aller Fälle zugunsten anderer Quellen.  Noch drastischer wird es, wenn wir uns die absolute Spitze ansehen: Nur 21,97 % der im AI Mode verlinkten URLs finden sich auch in den Top-10-Ergebnissen der klassischen Google-Suche.   Was bedeutet das für "Google Ranking verbessern"?  Es bedeutet, dass die Algorithmen, die das organische Ranking bestimmen (Backlinks, technische SEO, Core Web Vitals), nicht deckungsgleich mit den Auswahlkriterien der LLMs (Large Language Models) sind. Die KI sucht nach anderen Signalen. Sie sucht nach semantischer Relevanz, Informationsdichte und Kontext , nicht zwingend nach der Domain mit dem höchsten Authority Score.  Wer heute nur auf das klassische Google Ranking optimieren setzt, optimiert an der Zukunft vorbei. Wir sehen eine Entkopplung der beiden Such-Modi.  Überschneidung der AI Mode Links mit den organischen Top 10 Ergebnissen Unsere Daten zeigen zudem spannende Unterschiede zwischen den verschiedenen KI-Engines. Während sich Google AI Mode und Perplexity noch zu knapp 30 % überschneiden, wählt ChatGPT völlig andere Quellen (unter 10 % Überschneidung). Das "Winner-takes-it-all"-Prinzip der alten SEO-Welt, wo Platz 1 überall gewinnt, ist vorbei.  Wer sind die Gewinner im AI Mode? (Websites & Content)  Wenn die klassischen Top-Rankings nicht mehr ausschlaggebend sind, wer profitiert dann? Unsere Analyse der Website-Typen liefert klare Antworten, wie du deine KI Content Strategie ausrichten solltest.  Brand-Websites und E-Commerce: Das Fundament steht  Die gute Nachricht für Marken: Brand-Websites (44,26 %) und E-Commerce-Shops (10,57 %) machen zusammen über die Hälfte aller Verlinkungen aus.  Das bedeutet, dass Google auch im AI Mode vertrauenswürdigen Markenquellen den Vorzug gibt. Aber – und das ist ein großes Aber – es kommt darauf an, welche Unterseiten verlinkt werden.  Digitale PR ist der neue Backlink-Aufbau  Auffällig ist der Anstieg von News/Journalismus-Seiten (10,19 %) und Vergleichsportalen (10,29 %). Zusammen machen sie über 20 % der Quellen aus.  Interpretation: Die KI validiert Informationen durch Dritte. Wenn deine Marke oder dein Produkt in einem renommierten Nachrichtenartikel oder einem unabhängigen Vergleichsportal erwähnt wird, steigt die Wahrscheinlichkeit massiv, dass die KI diese Informationen aufgreift und dich als Quelle nennt. Digitale PR wird damit wichtiger als der klassische, technische Linkaufbau.  Foren sind (noch) überschätzt  Entgegen dem Hype um "Reddit-SEO" zeigen unsere Daten, dass Foren und Community-Seiten weniger als 3 % der erwähnten Links ausmachen. Eine reine Strategie, die nur auf User Generated Content setzt, greift also zu kurz.  Typ von Websites, die im AI Mode verlinkt werden. Content-Metamorphose: Weg vom Verkauf, hin zur Orientierung  Vielleicht die wichtigste Erkenntnis der Studie betrifft die Art des Contents . Hier müssen Unternehmen am schnellsten umdenken.  Reine Verkaufstexte verlieren an Relevanz. Die KI versteht die Suchintention (Search Intent) viel granularer. Wenn Nutzer*innen den AI Mode nutzen, suchen sie oft nach Zusammenfassungen, Erklärungen oder Vergleichen – nicht direkt nach einem "Kaufen"-Button.  Unsere Daten sprechen eine deutliche Sprache:  Blogartikel dominieren: 41,23 % aller verlinkten URLs sind Blogartikel oder blog-ähnlicher Content.  Listicles funktionieren: Mit 12,35 % sind Listen (z.B. "Die 10 besten...") das zweithäufigste Format.  Hilfe-Seiten verlieren: Reine FAQ- oder Hilfe-Seiten liegen nur bei 4,67 %.  Warum ist das so?  Listicles und gut strukturierte Blogartikel bieten der KI "futtergerechte" Informationen. Sie bieten Orientierung und Struktur, die das Sprachmodell leicht extrahieren und neu zusammensetzen kann. Eine reine Produktseite bietet oft zu wenig Kontext. Eine trockene FAQ-Seite ist oft zu spezifisch und bietet nicht den umfassenden Kontext, den die KI für eine generierte Antwort benötigt.  Art von Content Das Fazit für deine Content-Strategie: Content, der Orientierung bietet, gewinnt. Unternehmen müssen weg von reinem Sales-Content und hin zu informativen, nutzerzentrierten Inhalten, die Fragen umfassend beantworten.  GEO (Generative Engine Optimization): Die neue Ära der Optimierung für Google  Wir müssen aufhören, nur "SEO" zu sagen, wenn wir eigentlich Sichtbarkeit in KI-Systemen meinen. Der Fachbegriff, der sich hier herauskristallisiert, ist GEO (Generative Engine Optimization) .  Basierend auf unserer Studie lassen sich konkrete Handlungsempfehlungen für GEO ableiten:  On-Page GEO ist ein großer Hebel: Da Brand-Websites so stark vertreten sind, hast du die Kontrolle. Optimiere deine informativen Bereiche. Sorge dafür, dass deine Blogartikel klare Strukturen, Listen und prägnante Zusammenfassungen enthalten.  Informational vor Transactional: Bei Prompts mit informativer Suchintention ist die Chance höher, auch mit guten Rankings in den AI Mode zu kommen. Investiere in High-Level-Content, der Themen erklärt, statt nur Produkte zu bewerben.  Erweitere deine PR-Arbeit: Sorge dafür, dass du auf News-Seiten und in Vergleichsportalen stattfindest. Die KI vertraut diesen Quellen. Deine Marke muss dort präsent sein, wo Meinungen gebildet werden.  Diversifiziere deine Quellen: Verlasse dich nicht darauf, dass dein Google-Ranking dich rettet. Da über 60 % der AI-Links aus dem "Nichts" (außerhalb der Top 50) kommen, hast du die Chance, mit hochspezifischem, exzellentem Content Nischen zu besetzen, die im klassischen SEO von großen Playern dominiert werden.  Fazit: Wer jetzt handelt, sichert sich den Vorsprung  Die Integration von KI in die Suche und die Nutzung von LLMs werden sich immer weiter verstärken. Wir stehen erst am Anfang dieser Entwicklung. Die Tatsache, dass der AI Mode oft andere Quellen wählt als der klassische Algorithmus, ist beängstigend und befreiend zugleich.  Es bedeutet, dass die Karten neu gemischt werden. Kleine Player mit exzellentem Content können Giganten schlagen, die sich nur auf ihrer Domain Authority ausruhen. Unternehmen, die jetzt reagieren und ihre Strategie von reinem SEO hin zu einer hybriden SEO/GEO-Strategie entwickeln, sichern sich einen entscheidenden Wettbewerbsvorteil.  Warte nicht, bis dein Traffic einbricht. Nutze die Erkenntnisse aus unserer Studie, um deine Inhalte fit für die AI Suchmaschine zu machen.  Möchtest du tiefer in die Daten eintauchen?  Unsere Studie enthält noch viel mehr Details, Branchen-Breakdowns und spezifische Analysen zu Perplexity und ChatGPT.  Lade dir jetzt die komplette Google AI Mode Studie herunter und erfahre im Detail, wie du deine SEO / GEO Strategie für die Zukunft optimierst.   🔗 Kostenloser Download der Google AI Mode Studie Hinweis zur Transparenz: Dieser Artikel basiert auf de empirischen Studie "Google AI Mode: Neue Regeln für Sichtbarkeit" von internetwarriors, durchgeführt im November 2025.  

YouTube Ads 2025: Demand Gen & KI verändern das Video-Marketing

21.11.2025

Josephine

Treuter

Kategorie:

SEA

Banner YouTube Ads 2025 - Frau mit Sneakern vor der Kamera

YouTube ist ein wichtiger Ort für Branding und Reichweite - ein Kanal, um Marken sichtbar zu machen und günstigen Traffic zu generieren. Auch heute bleibt YouTube ein zentraler Bestandteil der Marketingstrategie, insbesondere im Top-of-Funnel-Bereich. Doch mit der Einführung von Demand Gen-Kampagnen und dem verstärkten Einsatz von künstlicher Intelligenz eröffnen sich neue Chancen: Branding und Performance können nun kombiniert werden, sodass Marken nicht nur ihre Reichweite steigern, sondern auch gezielt und messbar ihre Performance optimieren können.  Früher galt YouTube als Plattform für „Top of Funnel“-Strategien. Heute ist es ein Conversion-Motor. Dank KI-gestützter Automatisierung können Marketer nicht nur Zielgruppen präzise ansprechen, sondern auch Gebotsstrategien wie „Conversion maximieren“ oder „Ziel-ROAS“ dynamisch steuern. KI analysiert in Echtzeit, welche Nutzer*innen am wahrscheinlichsten konvertieren, und sorgt dafür, dass Budgets effizient eingesetzt werden.  Demand Gen geht dabei noch einen Schritt weiter: Es kombiniert Video- und Bildanzeigen in einer einzigen Kampagne, die über YouTube, Discover und Gmail ausgespielt wird. Das bedeutet mehr Reichweite, mehr Touchpoints und mehr Möglichkeiten, deine Zielgruppe zum Handeln zu bewegen.  Bevor wir tiefer in die Strategien eintauchen, lohnt sich ein Blick auf die Bedeutung von YouTube im Marketing-Mix und warum Demand Gen die Zukunft für alle ist, die Performance ernst nehmen.  Warum YouTube?  Bildquelle: Google Support  In einer digitalen Welt ist YouTube ein zentraler Bestandteil des Marketing-Mix. Laut Statista sind weltweit mehr als 2 Milliarden Nutzer*innen monatlich auf YouTube aktiv, das entspricht etwa 40 % der globalen Internetnutzer*innen. Allein in Deutschland nutzen rund 72,6 Millionen Menschen die Plattform monatlich, mit einer täglichen Reichweite von etwa 37 % (Umfrage 2022).  Diese Reichweite bietet Werbetreibenden enorme Chancen. Nutzer*innen verbringen viel Zeit auf der Plattform, konsumieren Inhalte gezielt und reagieren auf Empfehlungen ihrer Lieblings-Creator. Mit KI-gestützten Algorithmen können diese Nutzer*innen noch genauer analysiert werden und personalisierte Anzeigen in Echtzeit ausspielt werden. Das steigert nicht nur die Effektivität von Video Ads, sondern auch die Conversion-Chancen deutlich.  Was ist eine Demand Gen-Kampagne?  Demand Gen-Kampagnen sind die Weiterentwicklung der bisherigen Video-Aktionskampagnen und bieten eine leistungsstarke Möglichkeit, Conversions über mehrere Google-Plattformen hinweg zu steigern. Statt nur auf YouTube zu setzen, kombiniert Demand Gen verschiedene Formate, darunter Video, Bild und Karussell, und spielt sie auf YouTube, Discover und Gmail aus.  Das Ziel: Nutzer*innen nicht nur zu erreichen, sondern aktiv zum Handeln zu bewegen. Durch KI-gestützte Automatisierung werden Zielgruppen präzise identifiziert, Anzeigen dynamisch optimiert und Gebotsstrategien wie „Conversion maximieren“ oder „Ziel-ROAS“ effizient umgesetzt.  Während Video-Aktionskampagnen bereits eine deutliche Verbesserung gegenüber den früheren TrueView for Action-Kampagnen darstellten, geht Demand Gen noch einen Schritt weiter: Mehr Reichweite, mehr Formate, mehr KI-Power. Google berichtet, dass Werbetreibende mit Demand Gen bis zu 20 % höhere Conversion-Raten erzielen können und das bei einer deutlich flexibleren Kampagnenstruktur.  Wo werden die Demand Gen-Kampagnen ausgespielt und wie sehen diese aus?  Demand Gen-Kampagnen bieten maximale Flexibilität bei der Ausspielung deiner Anzeigen. Statt nur auf überspringbare In-Stream-Anzeigen wie früher bei TrueView for Action zu setzen, kannst du jetzt verschiedene Formate nutzen:  Videoanzeigen (inkl. YouTube Shorts)  In-Feed-Anzeigen  Karussell- und Bildanzeigen  Diese Anzeigen erscheinen nicht nur im YouTube-Startseitenfeed, sondern auch in den Bereichen „Empfohlene Videos“, auf Suchergebnisseiten sowie in Google Discover und Gmail. Zusätzlich werden sie bei Google-Videopartnern ausgespielt, für eine deutlich größere Reichweite.  Das Besondere: KI entscheidet automatisch, wo deine Anzeigen die höchste Wirkung erzielen. Sie analysiert Nutzer*innenverhalten, Conversion-Potenzial und Kontext, um die beste Platzierung in Echtzeit zu wählen.  Für optimale Performance empfiehlt Google, Videos mit einer Länge von mindestens 10 Sekunden einzusetzen. Außerdem kannst du mehrere Assets wie Call-to-Actions, Überschriften und Beschreibungen hinzufügen. Die KI testet diese Kombinationen automatisch und wählt die Varianten aus, die das höchste Engagement und die besten Conversion-Raten erzielen.  Mit KI zum Erfolg: Best Practices Demand Gen-Kampagnen  Video Ads auf YouTube entwickeln sich rasant weiter und mit ihnen die Möglichkeiten, Conversions zu steigern. Dank KI können Marketeers ihre YouTube Ads noch präziser aussteuern und automatisch optimieren. Wer erfolgreich sein will, sollte die folgenden Best Practices beachten.  1. KI-gestütztes Targeting nutzen  Die Zielgruppe richtig zu erreichen, entscheidet über den Kampagnenerfolg. Mit AI optimierte YouTube Ads analysieren Verhalten und passen Targeting dynamisch an, um Conversions zu maximieren. So werden Streuverluste minimiert und Budgets effizient eingesetzt.  2. Automatisierte Video-Creatives einsetzen  Nicht jede Video-Ad erzielt sofort die maximale Wirkung. Mit KI lassen sich Video-Creatives automatisch testen und optimieren: Varianten von Intro, CTA oder visuellem Layout werden analysiert, um die höchste Engagement- und Conversion-Rate zu erzielen.  3. Gebotsstrategien intelligent optimieren  YouTube Ads kann Gebote mit Hilfe von AI dynamisch anpassen, basierend auf historischen Daten, Echtzeit-Verhalten und Conversion-Potenzial. Strategien wie „Conversion maximieren“ oder „Ziel-ROAS“ lassen sich so deutlich effizienter umsetzen.  4. Performance kontinuierlich überwachen  KI-gestützte Dashboards können Insights liefern, welche Creatives, Call-to-Actions oder Formate am besten performen. Marketingexpert*innen können so Entscheidungen datenbasiert treffen, Kampagnen optimieren und langfristig den ROI steigern.  5. Testen und lernen mit KI  Regelmäßige Experimente sind entscheidend: KI identifiziert automatisch die besten Kombinationen von Assets, Videoformaten und Texten. Das spart Zeit und sorgt dafür, dass jede Kampagne kontinuierlich verbessert wird.  Wer Kampagnen auf YouTube erfolgreich durchführen möchte, kommt an KI mittlerweile nicht mehr vorbei. Mit KI-basierten Strategien für Video Ads lassen sich Conversions steigern, Budgets effizient nutzen und kreative Prozesse automatisieren. Marketingexpert*innen, die diese Best Practices anwenden, sichern sich einen klaren Wettbewerbsvorteil.  Welche KI gestützten Creatives eignen sich für Video Ads?  ABDC-Prinzip  Das Erstellen relevanter Werbeinhalte ist der Schlüssel zum Erfolg jeder YouTube-Kampagne. Die ersten Sekunden eines Videos sind entscheidend, um die Aufmerksamkeit der Zuschauenden zu fesseln. Werden visuell ansprechende, kontrastreiche Bilder genutzt und wird sichergestellt, dass die Brand von Anfang an erkennbar ist und durchgehend im Video präsent bleibt, bildet das eine gute Grundlage.  Mit KI lassen sich Creative-Varianten automatisch generieren und optimieren. Die KI analysiert dabei Texte, Bilder, Videoclips und Call-to-Actions, um herauszufinden, welche Kombinationen die höchste Engagement- und Conversion-Rate erzielen. So kann automatisch getestet werden, welche Storytelling-Elemente und visuellen Stile am besten bei deiner Zielgruppe ankommen.  Wird versucht, innerhalb des Videos eine Geschichte zu erzählen, die wichtige USPs hervorhebt, aber auch Emotionen weckt, hat das einen sehr positiven Einfluss. KI kann dabei unterstützen, die effektivsten Storytelling-Elemente, visuellen Stile und Call-to-Actions automatisch zu identifizieren, um die Performance der Video Ads zu steigern. Zudem sollte jedes Video mit einer klaren Call-to-Action (CTA) enden, um Interaktionen zu fördern. Für weitere Infos kann das ABCD-Prinzip für effektive Creatives von Google als Hilfe genutzt werden.  KI-gestützte Gebotsstrategien für YouTube Demand Gen-Kampagnen  Da bei den Demand Gen-Kampagnen die Conversions im Vordergrund stehen, kann man Conversion-bezogene Gebotsstrategien gezielt mit KI-Unterstützung einsetzen, z. B. „Ziel-CPA“. Die KI analysiert kontinuierlich historische Daten, Nutzer*innen-Verhalten und die aktuelle Performance, um Gebote dynamisch anzupassen und Conversions effizient zu maximieren.  Wichtig ist zu beachten, dass das festgelegte Kampagnenbudget beeinflusst, wie schnell der KI-Algorithmus die Kampagne hinsichtlich der Conversions optimieren kann. Besonders für die Gebotsstrategie „Ziel-CPA“ empfiehlt sich ein Tagesbudget, das mindestens dem 15-Fachen des angestrebten CPA entspricht, damit die KI genügend Daten hat, um präzise Entscheidungen zu treffen.  Fortgeschrittene KI-gestützte Strategien, wie „Ziel-ROAS“ oder „Conversion-Wert maximieren“, stehen für Demand Gen-Kampagnen erst dann zur Verfügung, wenn innerhalb der Kampagne mindestens 30 Conversions erreicht wurden. Die KI sorgt dann dafür, dass Budgets und Gebote automatisch auf die profitabelsten Nutzer*innen und Zeitfenster ausgerichtet werden.  Warum die Demand Gen-Kampagnen mit Hilfe von KI testen?  Demand Gen-Kampagnen sind die Zukunft für Performance-Marketing auf YouTube und darüber hinaus. Sie bieten eine effektive Möglichkeit, Conversions zu steigern, Reichweite zu maximieren und den ROI nachhaltig zu verbessern. Der Einsatz von KI macht den Unterschied: präzises Targeting, dynamische Gebotsanpassungen und die automatische Optimierung von Creatives sorgen dafür, dass Budgets effizient genutzt und Streuverluste minimiert werden.  Regelmäßiges Testing mit KI ist entscheidend, um die besten Kombinationen aus Videoformaten, Storytelling-Elementen und Call-to-Actions zu identifizieren. So werden Kampagnen kontinuierlich optimiert und messbare Ergebnisse erzielt.  Braucht dein Unternehmen Unterstützung bei der Planung, Erstellung oder Optimierung von Demand Gen-Kampagnen? Die Warriors aus Berlin stehen bereit - kontaktiere uns für ein unverbindliches Angebot und sichere dir den Vorsprung im KI-gestützten Marketing. 

Local SEO & KI-Sichtbarkeit: Die wichtigsten Maßnahmen für deine GEO-Strategie

20.10.2025

Julien

Moritz

Kategorie:

SEO

Banner für einen Blogbeitrag: Smatphone mit offener ChatGpt aplication

Die Suchwelt verändert sich rasant. KI und LLMs wie ChatGPT oder Google AI Mode beeinflussen, wie Unternehmen gefunden werden. Wer regional sichtbar bleiben will, muss seine Strategie anpassen und wichtige Maßnahmen für local GEO und SEO kennen. Besonders für die Sichtbarkeit lokaler Unternehmen sind diese Maßnahmen entscheidend für eine komplexe Strategie, die lokales SEO und GEO optimal verbindet. Das Wichtigste auf einem Blick Die Kombination aus local SEO und GEO-Inhalten ist heute entscheidend für maximale Sichtbarkeit.  Unternehmensprofil, Bewertungen, Offpage-Maßnahmen und eine gute technische Grundlage sind die Basis für lokale Auffindbarkeit. KI und LLMs verändern die Suchwelt: Inhalte müssen maschinenlesbar, semantisch und entlang der Customer Journey strukturiert werden. Gezielter Linkaufbau und KI-optimierte Inhalte sind die wichtigsten Maßnahmen. Mit einem Prompt-Monitoring und neuen KPIs wird nachhaltiger Erfolg messbar. Prompt Datenbank aufbauen – unsere Matrix Ein zentraler Erfolgsfaktor für lokale SEO und KI-Sichtbarkeit ist die gezielte Ausrichtung der Inhalte entlang der Customer Journey. Warum ist das relevant? Nutzer befinden sich in unterschiedlichen Phasen ihrer Entscheidungsfindung und stellen jeweils andere Anforderungen an die Inhalte, die sie konsumieren. Wer seine Content-Strategie darauf abstimmt, sorgt dafür, dass die eigene Marke in KI-generierten Antworten erwähnt wird oder die Website als Quelle für die Antworten genutzt wird.  Für die Erstellung dieser Prompt-Datenbank haben wir eine Matrix entwickelt. Wer seine Inhalte entlang dieser Matrix ausrichtet, spricht Nutzer gezielt in jeder Phase der Customer Journey an und steigert nachhaltig die Sichtbarkeit.  Zu Beginn steht die Discovery & Awareness-Phase . Hier suchen Nutzer nach allgemeinem Wissen, möchten ein Problem verstehen oder eine Lösung kennenlernen. Unternehmen sollten in dieser Phase ihre Autorität zeigen, Schritt-für-Schritt-Anleitungen anbieten und eigene Lösungen präsentieren.  In der Consideration-Phase vergleichen Nutzer verschiedene Angebote und wägen Vorteile ab. Hier gilt es, Vertrauen aufzubauen, die Stärken des eigenen Angebots hervorzuheben und Produkte im Vergleich positiv darzustellen.  Die Decision-Phase ist geprägt von einer klaren Kaufabsicht. Inhalte sollten hier einen direkten Handlungsaufruf enthalten und den Nutzer zur gewünschten Transaktion führen.  Schließlich gibt es noch die KI-spezifischen Intents . Nutzer geben gezielt Befehle oder möchten automatisierte Prozesse anstoßen. In dieser Phase ist es wichtig, die eigene Marke in den Kontext solcher automatisierten Abläufe zu bringen und Lösungen für spezifische Aufgaben bereitzustellen.  Um die Prompts zu erstellen, können relevante SEO-Keywords als gute Grundlage genutzt werden. So stellst du sicher, dass die SEO und GEO-Strategie Hand in Hand gehen. Die erstellte Prompt-Datenbank sollte anschließend in ein Monitoring-Tool hinzugefügt werden, um einen Überblick der aktuellen Sichtbarkeit in KI und Suchmaschinen zu erhalten. Daraus ergeben sich dann Maßnahmen, um bestehenden Content zu überarbeiten und Potenziale für neue Inhalte. Local GEO und SEO: Was heute wirklich zählt SEO und KI-Sichtbarkeit sind heute besonders wichtig für lokale Unternehmen. Wer bei local GEO und SEO die richtigen Maßnahmen umsetzt, bleibt für potenzielle Kunden und KI-Systeme dauerhaft präsent. Inhalte maschinenlesbar strukturieren Eine saubere und strukturierte technische Umsetzung ist für die Sichtbarkeit von lokalen Unternehmen im digitalen Raum unverzichtbar. Damit Suchmaschinen und KI-Modelle Inhalte optimal erfassen und ausspielen können, sollte die Website mit sauberem HTML und semantischen Tags wie <article> und <section> aufgebaut werden. Zusätzlich empfiehlt es sich, spezielle Markups wie FAQ- oder HowTo-Strukturen zu nutzen, um Informationen für Suchmaschinen und KI noch besser zugänglich zu machen. Die folgende GEO-Formel hat sich bewährt: Relevante Nutzerfragen werden als Überschrift (H2) formuliert. Direkt darunter folgt eine präzise und verständliche Antwort. Im Anschluss werden weiterführende Informationen angeboten, die das Thema vertiefen oder zusätzliche Aspekte beleuchten. Diese klare Struktur hilft nicht nur den Nutzern, sondern sorgt auch dafür, dass Suchmaschinen und KI-Systeme die Inhalte besser interpretieren und ausspielen können. Lokal relevante Inhalte erstellen Besonders wirkungsvoll sind stadtbezogene Case Studies, Kundenberichte, lokale Events sowie die Einbindung von Wahrzeichen und Stadtteilen. Solche Inhalte schaffen nicht nur Nähe zur Zielgruppe, sondern unterstreichen die lokale Kompetenz und Präsenz des Unternehmens.  Ein weiterer zentraler Aspekt ist die regelmäßige Verwendung von lokalen Keywords (Leistung + Stadt) in den Website-Texten. Dadurch wird eine klare Verknüpfung zwischen Standort und angebotener Dienstleistung hergestellt, was die SEO- und LLM-Sichtbarkeit verbessert.  Der Content sollte verschiedene Nutzerintentionen entlang der Customer Journey abdecken (siehe Prompt Matrix). So werden potenzielle Kunden in jeder Phase gezielt angesprochen und begleitet. Es ist wichtig, echte Nutzerfragen in die Inhalte zu integrieren. Indem häufig gestellte Fragen direkt beantwortet werden, erhöht sich die Relevanz der Website für Suchmaschinen und KI-Modelle. „Alte“ Grundlagen für local SEO auch für local GEO beachten  Ein vollständiges Unternehmensprofil bei Google und Bing ist die Grundlage für eine starke lokale Präsenz. Je mehr Informationen hinterlegt sind, desto besser können Suchmaschinen und KI-Modelle das Unternehmen einordnen und ausspielen. Ebenso wichtig ist es, aktiv für Kundenfeedback zu sorgen und Bewertungen zu sammeln. Positive Rückmeldungen stärken die Glaubwürdigkeit und wirken sich direkt auf die lokale Sichtbarkeit in AI, LLMs und Suchmaschinen aus.  Darüber hinaus sollte das Unternehmen in relevante Branchenverzeichnisse eingetragen werden, um die Auffindbarkeit und Reichweite weiter zu erhöhen. Ergänzend dazu sorgt gezielter branded Traffic über Social Media für ein gesundes Signal an Suchmaschinen und KI-Systeme. Die aktive Kommunikation und Interaktion auf sozialen Plattformen schafft zusätzliche Glaubwürdigkeit und unterstützt die lokale Sichtbarkeit nachhaltig. Linkaufbau in Zeiten von KI  Sprachmodelle durchsuchen und vergleichen in der Regel nicht eigenständig einzelne Dienstleistungen oder Produkte. Stattdessen greifen sie meist auf Vergleichsseiten, Nutzerberichte und ähnliche Quellen zurück, um Empfehlungen auszusprechen. Genau hier liegt eine wertvolle Chance für Unternehmen: Wer gezielt Backlinks auf solchen Plattformen aufbaut, erhöht die Wahrscheinlichkeit, in KI-generierten Antworten und Empfehlungen berücksichtigt zu werden. So lässt sich die AI-Sichtbarkeit in LLMs gezielt stärken und gleichzeitig wird durch qualitative Backlinks die Relevanz der Website für Suchmaschinen erhöht.  Die Plattformen lassen sich durch das ausgewählte Tool mit eingerichtetem Monitoring der Prompts identifizieren und priorisieren. Dabei gilt Qualität vor Quantität: Beiträge, die bereits häufig von LLMs zitiert werden, sind wertvoller als von KI selten genutzte Artikel. Bestehenden Content für echte Nutzerfragen optimieren Wenn deine Domain bereits in den organischen Suchergebnissen sichtbar ist, lohnt es sich, den Content gezielt für echte Nutzerfragen zu optimieren. Solche Fragen lassen sich beispielsweise mit der Google Search Console identifizieren, indem man nach Suchanfragen filtert, die typische Fragewörter enthalten. Wir nutzen beispielsweise folgenden Regex-Filter: Abbildung 1: Regex-Filter in der Google Search Console   Abbildung 2: Suchanfragen mit dem Regex-Filter in der Google Search Console   Wichtig ist, diese Fragen klar und hilfreich direkt unter einer H2-Überschrift zu beantworten. So wird der Content nicht nur für Nutzer attraktiver, sondern auch für Suchmaschinen und KI-Modelle besser verständlich.  Solltest du bereits einen Chatbot auf der Website haben, können die hier gestellten Fragen ebenfalls ein guter Indikator sein, dass diese auch oft an ChatGPT & Co. gestellt werden. Also lohnt es sich auch diese Fragen bereits im Content zu beantworten, um als Quelle von LLMs genutzt zu werden und damit die Sichtbarkeit in AI auszubauen. Neue GEO-KPIs etablieren  Auch wenn klassische SEO-Kennzahlen wie die Steigerung der Klicks oder des Traffics lange Zeit im Mittelpunkt standen, sind sie heute nicht mehr allein ausschlaggebend. Viele Unternehmen verzeichnen Rückgänge beim Suchmaschinen-Traffic, da KI-Modelle und LLMs zunehmend Antworten direkt ausspielen und Nutzer seltener auf die Website klicken. Der Traffic aus LLMs kann diese Einbußen meist nicht vollständig ausgleichen. Allerdings zeigt sich, dass die Qualität dieses Traffics oft deutlich höher ist und die Conversion Rate steigt.  Um die Sichtbarkeit lokaler Unternehmen  und den Erfolg der eigenen Maßnahmen dennoch gezielt zu messen, empfiehlt es sich, bewährte SEO-KPIs mit spezifischen GEO-KPIs zu kombinieren. Dazu zählen zum Beispiel die Brand Mention Rate, also wie häufig die eigene Marke in wichtigen Prompts genannt wird (z.B. über 40%), die AI Platform Coverage, also die Präsenz auf mehreren relevanten LLMs (z.B. mehr als fünf), sowie der Brand Search Uplift, der den Anstieg der Marken-Suchanfragen nach umfassenden GEO-Maßnahmen misst (z.B. über 25%). So entsteht ein ganzheitliches Bild, das sowohl die Reichweite als auch die Qualität der Sichtbarkeit in klassischen Suchmaschinen und KI-basierten Systemen abbildet.  Fazit: Lokale Sichtbarkeit in LLMs und Suchmaschinen  Die lokale Sichtbarkeit von Unternehmen in LLMs und klassischen Suchmaschinen wird heute maßgeblich durch die intelligente Kombination von SEO und GEO-Strategien bestimmt. Wer die wichtigsten Maßnahmen umsetzt bleibt sowohl in Suchmaschinen als auch in KI-basierten Systemen präsent. Die Anforderungen an Unternehmen verändern sich durch die rasante Entwicklung von KI und LLMs: Es reicht nicht mehr, nur für Google zu optimieren. Entscheidend ist, die eigene Marke und Angebote auch in KI-generierten Antworten und Empfehlungen sichtbar zu machen. Wer jetzt handelt und seine Strategie ganzheitlich ausrichtet, sichert sich einen nachhaltigen Wettbewerbsvorteil in der lokalen Suche.  Hier findest du die passende Checkliste zum Thema FAQ - Häufig gestellte Fragen Wie kann ich herausfinden, ob mein lokales Unternehmen in KI-generierten Antworten bereits sichtbar ist? Um die Sichtbarkeit in KI-Antworten zu prüfen, empfiehlt es sich ein Prompt-Monitoring mit spezialisierten Tools einzurichten. Diese zeigen, ob und wie oft die eigene Marke oder Website in Antworten von LLMs wie ChatGPT oder Google AI Mode genannt wird oder sie als Quelle herangezogen wird. Welche Rolle spielen strukturierte Daten für die KI-Sichtbarkeit? Strukturierte Daten helfen KI-Modellen, Inhalte besser zu verstehen und korrekt auszuspielen. Sie sind besonders wichtig, um als Quelle für KI-Antworten berücksichtigt zu werden und sollten daher konsequent eingesetzt werden. Sind KI-optimierte Inhalte auch für klassische Suchmaschinen relevant? Ja, Inhalte, die für KI-Modelle optimiert sind – etwa durch semantische Struktur, FAQ-Markup und die Beantwortung echter Nutzerfragen – werden auch von klassischen Suchmaschinen besser verstanden und ausgespielt. Wir empfehlen für Prompts zu optimieren, die auf wichtigen SEO-Keywords basieren. So lässt sich local SEO und GEO optimal kombinieren. Wie oft sollte ich meine Inhalte aktualisieren, um für Suchmaschinen und LLMs relevant zu bleiben? Die Such- und KI-Landschaft entwickelt sich schnell. Es empfiehlt sich, die Prompt-Datenbank und dazu die wichtigsten Inhalte mindestens quartalsweise zu überprüfen und bei Bedarf zu aktualisieren, um neue Trends und Nutzerfragen frühzeitig zu adressieren. Der Zeitraum kann allerdings variieren und hängt davon ab, wie dynamisch sich die Branche weiterentwickelt. Welche Fehler sollte ich bei der lokalen Suchmaschinen- und KI-Optimierung vermeiden? Häufige Fehler sind unvollständige Unternehmensprofile, fehlende lokale Keywords, technische Strukturen, die auf JavaScript basieren und clientseitig gerendert werden, keine Integration von Nutzerfragen und das Vernachlässigen von Monitoring und KPIs.

Transparenz in Google Ads: So nutzt du das Performance Max Channel Reporting richtig

10.10.2025

Josephine

Treuter

Kategorie:

SEA

Banner für einen Blogbeitrag: Laptop buntes reporting Performance Max

Google Ads ist eine der effizientesten Möglichkeiten, um die Reichweite von Unternehmen zu steigern und gezielt Conversions zu erzielen. Doch in Zeiten von KI und Automatisierung verändert sich auch die Art, wie Kampagnen gesteuert und ausgewertet werden. Mit der Einführung der Performance Max Kampagnen hat Google einen neuen Ansatz geschaffen: Alle Kanäle, von Search über YouTube bis hin zu Shopping, werden in einer einzigen, vollautomatisierten Kampagne gebündelt. Das verspricht maximale Effizienz, erschwert jedoch gleichzeitig die Nachvollziehbarkeit, über welche Kanäle die Conversions tatsächlich generiert werden.  Lange war nicht ersichtlich, welcher Kanal welchen Beitrag zur Kampagnenleistung leistet. Wer diese Informationen brauchte, musste sich mit technischen Skripten und komplexen Workarounds behelfen - ein Aufwand, der viele Teams überforderte. Mit dem neuen Channel Performance Reporting ändert sich das grundlegend und es lassen sich die Ergebnisse kanalgenau auswerten. In diesem Artikel zeigen wir dir, wie du das neue Reporting richtig nutzt, welche Best Practices sich bereits bewährt haben und wie du mit mehr Transparenz bessere Entscheidungen triffst. Als erfahrene Google Ads Agentur geben wir dir praxisnahe Tipps direkt aus dem Alltag bei internetwarriors.   Das Wichtigste in Kürze   Performance Max bündelt alle Google-Kanäle in einer Kampagne. Das Channel Reporting sorgt jetzt für die nötige Transparenz. Du siehst, wie Search, Display, YouTube, Discover, Maps und Gmail einzeln performen.  Die Berichte lassen sich nach Anzeigenformat, Status oder Zielwerten wie CPA oder ROAS segmentieren.  Durch das neue Reporting kannst du Optimierungspotenziale schneller erkennen und gezielter steuern.  Der Statusbereich hilft bei technischen Problemen und bietet Handlungsempfehlungen.  Was genau ist eine Performance Max Kampagne?   Die Performance Max Kampagne , kurz PMax, ist ein automatisiertes Kampagnenformat in Google Ads, das seit 2021 verfügbar ist. Es ermöglicht die gleichzeitige Ausspielung von Anzeigen über mehrere Google-Kanäle wie Search, Display, YouTube, Gmail, Discover und Shopping und das alles in einer einzigen Kampagne.  Im Gegensatz zu klassischen Kampagnen übernimmt bei PMax die Google-KI die Ausspielung und Optimierung. Basierend auf Zielvorhaben wie Conversions oder Umsatz entscheidet das System selbstständig, welche Anzeige welchem Nutzer auf welchem Kanal gezeigt wird. Für Werbetreibende bedeutet das: weniger manuelle Steuerung, dafür mehr Fokus auf hochwertige Assets und strategische Zieldefinition.  Mit dem neuen Channel Performance Reporting wird nun endlich sichtbar, welcher Kanal welchen Beitrag zur Gesamtleistung leistet und das ist ein wichtiger Schritt hin zu mehr Transparenz und Kontrolle.  Warum Transparenz bei einer PMax so wichtig ist  Performance Max Kampagnen bieten viele Vorteile: Sie bündeln alle Google-Kanäle in einer einzigen Kampagne, nutzen KI zur automatisierten Ausspielung und versprechen maximale Effizienz. Doch gerade diese Automatisierung bringt eine zentrale Herausforderung mit sich: fehlende Transparenz. Lange war es kaum nachvollziehbar, über welchen Kanal eine Conversion tatsächlich zustande kam. Das war ein Problem für alle, die ihre Kampagnen datenbasiert optimieren möchten.  Ohne kanalgenaue Einblicke ist es schwierig, fundierte Entscheidungen zu treffen: Soll mehr Budget in YouTube oder in Search fließen? Funktionieren Videoanzeigen besser als Textanzeigen? Welche Zielgruppen performen auf welchen Plattformen? Die Antworten auf diese Fragen sind entscheidend für eine effektive Kampagnensteuerung und genau hier setzt das neue Channel Performance Reporting an.  Es schafft die nötige Transparenz, um die Leistung einzelner Kanäle zu bewerten, Optimierungspotenziale zu erkennen und Budgets gezielt zu steuern. Für Agenturen wie internetwarriors ist das ein wichtiger Schritt, um Kund*innen nicht nur Ergebnisse zu liefern, sondern auch nachvollziehbare Strategien zu entwickeln.  So findest du das Channel Reporting in deinem Google Ads Konto   Das neue Channel Performance Reporting für Performance Max befindet sich derzeit noch in der Beta-Phase. Das bedeutet, dass die Funktion schrittweise ausgerollt wird und nicht in jedem Google Ads Konto sofort verfügbar ist. Auch der Umfang der angezeigten Daten kann je nach Konto variieren, von grundlegenden Kanalmetriken bis hin zu detaillierten Conversion-Insights.  Wenn dein Konto bereits freigeschaltet ist, findest du das Reporting direkt in der Google Ads Oberfläche unter: Kampagnenübersicht → Performance Max Kampagne auswählen → Insights → Channel Performance  Dort erhältst du eine kanalgenaue Aufschlüsselung wichtiger Kennzahlen wie Impressionen, Klicks, Conversions, Kosten und ROAS. Die Ansicht lässt sich nach Zeitraum, Gerät oder Conversion-Ziel filtern und bietet eine wertvolle Grundlage für datenbasierte Optimierungen.  Was zeigt dir das Channel Reporting genau?   Das Channel Performance Reporting liefert eine strukturierte Übersicht über die Leistung einzelner Kanäle innerhalb einer Performance Max Kampagne. Es zeigt, wie sich die Kampagne auf Plattformen wie Search, Display, YouTube, Gmail, Discover und Shopping verteilt und welcher Kanal welchen Anteil an den erzielten Conversions hat. Diese Transparenz ermöglicht eine fundierte Bewertung der Budgetverteilung, identifiziert unterperformende Kanäle und unterstützt bei der Priorisierung zukünftiger Investitionen.  Darüber hinaus bietet das Reporting umfangreiche Segmentierungs- und Filtermöglichkeiten. Die Daten lassen sich nach Zielmetriken wie Cost per Acquisition (CPA), Return on Ad Spend (ROAS) oder Klickrate (CTR) analysieren. So entsteht ein ganzheitlicher Blick auf die Kampagnenleistung und das sowohl kanalübergreifend als auch datenbasiert und strategisch verwertbar.  Was aus den Daten gelernt werden kann   Das Channel Performance Reporting liefert weit mehr als nur Zahlen. Es eröffnet neue Perspektiven für die strategische Steuerung von Performance Max Kampagnen. Durch die kanalgenaue Aufschlüsselung von Kennzahlen wie Impressionen, Klicks, Conversions und Kosten wird sichtbar, welche Plattformen tatsächlich zur Zielerreichung beitragen und wie sich das eingesetzte Budget verteilt.  Diese Daten ermöglichen eine fundierte Bewertung der eingesetzten Anzeigenformate, der Zielgruppenansprache sowie der Geräteverteilung. Zudem lassen sich Rückschlüsse auf die Customer Journey ziehen und potenzielle Optimierungspotenziale identifizieren, wie etwa bei der Gestaltung von Assets oder der Budgetallokation.  Für Agenturen wie internetwarriors stellt diese Transparenz eine wertvolle Grundlage dar, um Kampagnen nicht nur effizient zu optimieren, sondern auch nachvollziehbar gegenüber Kund*innen zu kommunizieren.  So optimierst du deine Kampagnen mit den neuen Insights   Die kanalgenauen Daten aus dem Channel Performance Reporting bieten eine wertvolle Grundlage für die strategische Optimierung von Performance Max Kampagnen. Durch die Analyse der einzelnen Kanäle lässt sich erkennen, welche Plattformen besonders effizient arbeiten, wo Streuverluste entstehen und welche Anzeigenformate die besten Ergebnisse erzielen. Auf dieser Basis können Budgets gezielter verteilt, Assets passgenauer gestaltet und Zielgruppen differenzierter angesprochen werden.  Zudem ermöglichen die Insights eine präzisere Bewertung der Customer Journey: Werden Nutzer*innen über YouTube angesprochen, aber konvertieren erst über Search? Solche Muster lassen sich nun nachvollziehen und in die Kampagnenstruktur einfließen. Auch die Auswahl der Conversion-Ziele kann anhand der Daten neu bewertet werden, um die Kampagnenausrichtung noch stärker an den tatsächlichen Nutzerverhalten auszurichten.  Grenzen und Fallstricke des Channel Reportings   Auch wenn das Channel Performance Reporting einen wichtigen Schritt in Richtung Transparenz darstellt, sollten die aktuellen Limitationen und Fallstricke nicht außer Acht gelassen werden. Da sich das Feature derzeit noch in der Beta-Phase befindet, ist die Verfügbarkeit nicht flächendeckend gewährleistet und der Umfang der angezeigten Daten kann je nach Konto variieren. In einigen Fällen werden nur aggregierte Werte angezeigt, ohne tiefere Einblicke in einzelne Anzeigenformate oder Zielgruppen.  Zudem ist zu beachten, dass Performance Max kanalübergreifend arbeitet und die einzelnen Kanäle stehen nicht isoliert für sich, sondern wirken im Zusammenspiel. Ein Kanal mit vermeintlich schwacher Performance kann dennoch einen wichtigen Beitrag zur Conversion leisten, etwa durch frühzeitige Nutzeransprache im Funnel. Die Interpretation der Daten erfordert daher ein ganzheitliches Verständnis der Customer Journey und sollte nicht ausschließlich auf Einzelmetriken basieren.  Auch technische Einschränkungen wie unvollständige Conversion-Zuordnung, fehlende Asset-Daten oder eingeschränkte Segmentierungsmöglichkeiten können die Analyse erschweren. Für eine fundierte Bewertung empfiehlt sich daher eine Kombination aus Channel Reporting, Conversion-Tracking und ergänzenden Tools wie Google Analytics oder serverseitigem Tracking.  Fazit: Mehr Kontrolle, bessere Entscheidungen   Mit dem neuen Channel Performance Reporting wird ein entscheidender Schritt in Richtung Transparenz innerhalb von Performance Max Kampagnen vollzogen. Die Möglichkeit, kanalgenaue Daten direkt im Google Ads Interface auszuwerten, schafft eine fundierte Basis für strategische Entscheidungen und zielgerichtete Optimierungen. Auch wenn sich das Feature noch in der Beta-Phase befindet und nicht in jedem Konto vollständig verfügbar ist, zeigt sich bereits jetzt, wie wertvoll diese Insights für eine moderne Kampagnensteuerung sind.  Die Kombination aus Automatisierung und datenbasierter Kontrolle ermöglicht es, Budgets effizienter zu verteilen, Assets gezielter einzusetzen und die Customer Journey besser zu verstehen.   Für Agenturen wie internetwarriors bedeutet das: mehr Klarheit in der Analyse, bessere Argumente in der Kundenkommunikation und eine deutlich gesteigerte Effektivität im digitalen Marketing.  Als erfahrene Google Ads Agentur unterstützen wir dich dabei, das volle Potenzial deiner Performance Max Kampagnen auszuschöpfen. Wir helfen dir nicht nur bei der Einrichtung und Optimierung deiner Kampagnen, sondern auch beim gezielten Einsatz des neuen Channel Performance Reportings. So erhältst du klare Einblicke in die Leistung einzelner Kanäle, kannst Budgets sinnvoll verteilen und datenbasierte Entscheidungen treffen. Mit unserer Expertise in KI-gestütztem Kampagnenmanagement und kanalübergreifender Analyse sorgen wir dafür, dass deine Ads nicht nur performen – sondern auch transparent und nachvollziehbar sind. Melde dich bei uns!    

VKU- Marketing-Experts 2025 – KI im Fokus

08.10.2025

Axel

Zawierucha

Kategorie:

Inside internetwarriors

Banner für einen Blogbeitrag: VKU Marketing Experts 2025

Am 24. September 2025 war Berlin der Hotspot für Marketing-Experten aus der Kommunalwirtschaft. Der VKU-Marketing-Experts Kongress bot eine exzellente Plattform, um über die drängendsten Themen der Branche zu diskutieren.   Das Top-Thema in diesem Jahr: der unaufhaltsame Vormarsch der Künstlichen Intelligenz im Marketing. Als internetwarriors waren wir, vertreten durch unsere Experten Julien Moritz (SEO/GEO Experte) und Axel Zawierucha (Geschäftsführer), vor Ort, um unser Wissen zu teilen und neue Impulse mitzunehmen.  Der Wandel ist jetzt: KI als Game-Changer  Die Atmosphäre auf dem Kongress war von einer spürbaren Aufbruchsstimmung geprägt. In zahlreichen Vorträgen und Diskussionen wurde deutlich, dass KI nicht länger nur ein Buzzword, sondern ein handfestes Werkzeug ist, das Marketingstrategien revolutioniert.   Von personalisierter Kund*innenansprache über automatisierte Content-Erstellung bis hin zu datengestützten Prognosen – die Möglichkeiten scheinen endlos. Doch mit den neuen Chancen kommen auch neue Herausforderungen. Eine der zentralen Fragen, die in vielen Gesprächen aufkam, war: Wie schaffen es Unternehmen, in einer von KI-Systemen und Sprachmodellen (LLMs) geprägten digitalen Landschaft sichtbar zu bleiben und ihre Zielgruppen effektiv zu erreichen?    Unser Workshop: Sichtbarkeit im Zeitalter von KI  Genau dieser Frage widmeten wir uns in unserem interaktiven Workshop. Unter dem Titel „Sichtbarkeit in der KI-Ära: So positionieren Sie Ihr Unternehmen in den neuen Systemen“ gaben Julien Moritz und Axel Zawierucha praxisnahe Einblicke und strategische Tipps.   Das Interesse war überwältigend. In intensiven Diskussionen mit den Teilnehmenden wurde klar, dass viele Unternehmen nach Orientierung suchen, wie sie ihre Inhalte und Daten so aufbereiten können, dass sie von KI-basierten Such- und Empfehlungssystemen optimal erfasst und ausgespielt werden.  Wir zeigten auf, wie eine durchdachte Datenstrategie und die Optimierung von Inhalten für semantische Suchen den entscheidenden Unterschied machen können. Die vielen spannenden Fragen und die engagierte Teilnahme haben uns gezeigt, dass wir hier einen Nerv getroffen haben.    Wie wir als GEO-Spezialisten unterstützen können  Gerade im lokalen Kontext ist geografische Sichtbarkeit entscheidend. Als GEO-Spezialisten helfen wir dir dabei, deine Präsenz in lokalen Suchsystemen und Kartenanwendungen zu stärken – ein wichtiger Faktor, um auch in KI-gesteuerten Umgebungen gefunden zu werden. Mit strukturierten Standortdaten, Local SEO und der gezielten Einbindung in semantische Suchsysteme sorgen wir dafür, dass deine Angebote dort erscheinen, wo Deine Zielgruppe sucht – heute und in der KI-getriebenen Zukunft. Kontaktiere uns!  

DMEXCO 2025: CRM, KI und die Zukunft des Suchmaschinenmarketings

24.09.2025

Axel

Zawierucha

Kategorie:

Inside internetwarriors

Banner für einen Blogbeitrag: DMEXCO 2025 - Nachlese

Die DMEXCO 2025 in Köln war für uns bei internetwarriors.de mehr als nur eine Messe – sie war ein pulsierender Marktplatz der Ideen, ein Schmelztiegel der Innovationen und vor allem eine Bestätigung für die Themen, die uns und unsere Kund *innen tagtäglich bewegen. Mit einem Rekordandrang von über 40.000 Teilnehmer *innen und unter dem Motto "Be Bold. Move Forward." sandte die diesjährige Leitmesse des digitalen Marketings ein klares Signal aus: Die Zukunft gehört den Mutigen, den Vorreitern und denen, die bereit sind, neue Wege zu gehen. In unzähligen inspirierenden Gesprächen mit Kund*innen, Partner*innen und Branchenkolleg*innen hat sich für uns ein roter Faden herauskristallisiert, der die zentralen Herausforderungen und Chancen unserer Zeit miteinander verbindet: die untrennbare Verknüpfung von Customer-Relationship-Management (CRM), die Revolution durch Künstliche Intelligenz (KI) und die Neudefinition der Kampagnenplanung im Zeitalter generativer Modelle.  Das Fundament erfolgreicher Performance-Kampagnen: Die CRM-Feedbackschleife   Ein Thema, das in unseren Gesprächen auf der DMEXCO 2025 immer wieder in den Vordergrund trat, war die immense Bedeutung einer tiefen Integration von CRM-Systemen in Performance-Marketing-Kampagnen. Es ist eine Erkenntnis, die so simpel wie entscheidend ist: Wer erfolgreich Leads generieren will, darf nicht an der Oberfläche kratzen. Die bloße Generierung von Kontaktdaten ist nur die halbe Miete. Der wahre Wert entfaltet sich erst dann, wenn eine nahtlose Feedbackschleife zwischen Marketing und Vertrieb etabliert wird.  Genau hier kommt das CRM ins Spiel. Es ist das Herzstück, das alle relevanten Informationen über eine n potenzielle n Kund*in bündelt und uns verrät, was aus einem generierten Lead tatsächlich geworden ist. Wurde der Kontakt qualifiziert? Kam es zu einem Verkaufsgespräch? Wurde ein Vertrag abgeschlossen? Dieses Feedback ist pures Gold für die Optimierung von Performance-Kampagnen. Ohne diese Rückkopplung agieren wir im Blindflug. Wir sehen zwar, welche Anzeigen und Keywords Klicks und Konversionen generieren, aber wir wissen nicht, welche davon wirklich zu Umsatz führen.  Aus unserer langjährigen Erfahrung in der Praxis und den intensiven Gesprächen auf der Messe können wir eine klare Empfehlung aussprechen. Als offizieller Implementierungspartner von Teamleader in Deutschland haben wir tiefgreifende Einblicke in die Leistungsfähigkeit moderner CRM-Systeme. Wir sind überzeugt, dass Teamleader alle wichtigen Features vereint, um erfolgreich Business machen zu können. Von der zentralen Kontaktdatenbank über das Deal-Tracking und die Projektverwaltung bis hin zur Zeiterfassung und Rechnungsstellung bietet die Plattform eine All-in-One-Lösung, die speziell auf die Bedürfnisse von Agenturen und dienstleistungsorientierten KMUs zugeschnitten ist. Die nahtlose Integration ermöglicht genau jene wertvolle Feedbackschleife, die für datengetriebenes Marketing unerlässlich ist.  Die Diskussionen auf der DMEXCO haben gezeigt, dass Unternehmen, die diese Schleife erfolgreich geschlossen haben, ihre Marketingbudgets deutlich effizienter einsetzen. Sie können ihre Kampagnen gezielt auf die Kanäle und Zielgruppen ausrichten, die die wertvollsten Kund*innen liefern. In einer Zeit, in der die Kosten für digitale Werbung stetig steigen und der Wettbewerb intensiver wird, ist diese datengestützte Präzision kein "Nice-to-have" mehr, sondern ein absolutes Muss für nachhaltigen Erfolg.  Google im Wandel: Die Zukunft der Suche im Zeitalter der KI   Natürlich war auch die KI Zukunft und die von Google und der organischen Suche eines der alles beherrschenden Themen in den Kölner Messehallen. Die Ära der rein keyword-basierten Suche neigt sich dem Ende zu. Generative KI-Modelle und die zunehmende Integration von KI in die Suchergebnisseiten (SERPs) läuten einen Paradigmenwechsel ein. Die Frage, die sich alle stellen, lautet: Wie wird sich die Suche verändern und was bedeutet das für unsere SEO- und SEA-Strategien?  Die Keynotes und Fachvorträge auf der DMEXCO zeichneten ein klares Bild: Die Suche wird kontextueller, dialogorientierter und persönlicher. Nutzer*innen erwarten nicht mehr nur eine Liste von Links, sondern direkte Antworten und Lösungen für ihre Anliegen. Googles "Search Generative Experience" (SGE) ist hier nur der Anfang. Die Fähigkeit, komplexe Anfragen zu verstehen und in ganzen Sätzen zu beantworten, wird die Art und Weise, wie wir nach Informationen suchen, fundamental verändern.  Für uns als Agentur bedeutet das, dass wir unsere Content-Strategien anpassen müssen. Es geht nicht mehr nur darum, einzelne Keywords zu optimieren, sondern umfassende Themenwelten zu schaffen, die die Fragen der Nutzer* innen ganzheitlich beantworten. "Topical Authority" wird zur neuen Währung im SEO. Wir müssen die Experten für unsere Nische werden und Inhalte erstellen, die sowohl für den die Nutzer*in als auch für die KI-gestützten Algorithmen einen echten Mehrwert bieten.  Gleichzeitig eröffnen sich durch die KI auch neue Möglichkeiten für die bezahlte Suche. Performance-Max-Kampagnen sind ein gutes Beispiel dafür, wie Google KI nutzt, um die Ausspielung von Anzeigen über das gesamte Google-Netzwerk hinweg zu automatisieren und zu optimieren. Die Herausforderung für uns Marketer besteht darin, der KI die richtigen Signale zu geben – und hier schließt sich wieder der Kreis zum CRM. Je besser die Daten sind, die wir der KI zur Verfügung stellen, desto präziser kann sie arbeiten und desto besser werden die Ergebnisse sein.  Die Revolution der Kampagnenplanung: Generative KI als kreativer Partner   Die vielleicht greifbarste Veränderung, die die KI mit sich bringt, erleben wir derzeit in der Kreation und Planung von Kampagnen. Generative KI-Tools für die Erstellung von Texten, Bildern und sogar Videos waren auf der DMEXCO allgegenwärtig. Diese Technologien haben das Potenzial, unsere Arbeitsprozesse von Grund auf zu verändern. Sie ermöglichen es uns, in kürzerer Zeit eine größere Vielfalt an Werbemitteln zu erstellen und A/B-Tests in einem bisher ungekannten Ausmaß durchzuführen.  Doch die wahre Revolution liegt nicht nur in der Effizienzsteigerung. Generative KI kann auch als kreativer Sparringspartner dienen, der uns neue Ideen und Perspektiven liefert. Sie kann uns dabei helfen, Zielgruppen noch besser zu verstehen und personalisierte Ansprachen zu entwickeln, die genau auf die Bedürfnisse des Einzelnen zugeschnitten sind.  Die Gespräche auf der Messe haben jedoch auch gezeigt, dass die menschliche Komponente dabei nicht zu kurz kommen darf. Die KI ist ein mächtiges Werkzeug, aber sie ersetzt nicht die strategische Planung, die kreative Vision und das Markenverständnis, das erfahrene Marketingexperten auszeichnet. Die Kunst wird darin bestehen, die Stärken von Mensch und Maschine optimal zu kombinieren. Die KI liefert die Daten und die Skalierung, der Mensch die Strategie und die emotionale Intelligenz.  Fazit: Mutig voranschreiten in eine datengestützte Zukunft   Unsere Zeit auf der DMEXCO 2025 hat uns in unserer Überzeugung bestärkt: Die Zukunft des digitalen Marketings ist datengestützt, KI-getrieben und kund*innenzentriert. Die Silos zwischen Marketing, Vertrieb und Service müssen endgültig eingerissen werden. Eine integrierte Sicht auf dendie Kund*in, ermöglicht durch ein leistungsstarkes CRM-System, ist das Fundament für alles Weitere.  Die Entwicklungen im Bereich der Künstlichen Intelligenz sind keine ferne Zukunftsmusik mehr, sondern prägen schon heute das KI im Unternehmen . Es gilt, diese Technologien mutig anzunehmen, ihre KI Chancen zu erkennen und sie intelligent in unsere Strategien zu integrieren. Die DMEXCO 2025 war ein Weckruf für alle, die noch zögern. Der Wandel ist da, und er wartet nicht. Wir bei internetwarriors.de sind bereit, diesen Wandel aktiv mitzugestalten und gemeinsam mit unseren Kund*innen die Chancen zu ergreifen, die er uns bietet. Denn wie das Motto der DMEXCO schon sagte: Es ist an der Zeit, mutig zu sein und voranzuschreiten.   Sie wollen den Wandel im digitalen Marketing gemeinsam mit uns vorantreiben? Dann lassen Sie uns jetzt die nächsten Schritte gehen – datengetrieben, kreativ und mutig. Wir sind bereit. Sind Sie es auch?

Weitere Beiträge anzeigen