Unser Recap zur SMX Next 2023
27. November 2023
Nach der SMX Advanced im September fand am 14. und 15. November 2023 nun die SMX Next rein digital statt. Einige unserer Kolleg:innen haben sich die Zeit genommen, in die Vorträge reinzuhören. Wie zu erwarten, drehte sich vieles um Künstliche Intelligenz, ChatGPT und vor allem Googles Search Generative Experience (SGE). Wir fassen für euch unsere wichtigsten Erkenntnisse zusammen.
Bart Goralewicz: Google’s Search Generative Experience: Prepare for impact
Bart Goralewicz hat viel mit SGE getestet und konnte auf diese Weise spannende Daten zusammenstellen und einige Rückschlüsse daraus ziehen.- Für 75 % der Suchanfragen wird SGE aktuell ausgespielt (bei 55 % wird es automatisch ausgespielt, bei 20 % muss es manuell angestoßen werden)
- Dabei gibt es gravierende Unterschiede nach Segmenten; Goralewicz Schlussfolgerung: Geht es um Themen, zu denen es viele Inhalte gibt, dann wird dort auch häufiger SGE ausgespielt
- 95 % Ausspielung im eCommerce
- 88 % Ausspielung im SEO
- 81 % Ausspielung bei medizinischen Themen
- 73 % Ausspielung bei zeitkritischen Themen
- 54 % Ausspielung bei Your Money, Your Life (YMYL) Themen
- 22 % Ausspielung im Investment-Bereich
- Es gibt auch Themen, an die sich SGE nicht herantraut, wie z. B. „covid“, „side effects“ (Nebenwirkungen), „weight loss“ (Abnehmen), oder spezifische Medikamentennamen
- Es gibt weitere Auslöser für SGE-Ausspielungen, bei Suchanfragen mit bestimmten Wörtern ist die Ausspielung besonders hoch
- 100 % mit „near“ (Hinweis auf lokale Suchanfrage)
- 95 % mit „buy“ (Hinweis auf eCommerce)
- 93 % mit „amazon“ (Hinweis auf eCommerce)
- 88 % mit „cost“ (Hinweis auf eCommerce)
- 77 % mit „how“ (Hinweis auf Tutorial)
- 52 % mit „best“ (Hinweis auf eCommerce)
- Anders als bisherige SERP-Features nimmt SGE (ausgeklappt) sehr viel Platz ein:
- Die durchschnittliche Größe der SGE-Einblendung hat sich in den vergangenen zwei Monaten von 682 Zeichen auf 2.096 Zeichen erhöht (+307 %)
- Zum Vergleich: Featured Snippets nehmen im Schnitt 300 Zeichen ein
- Folgende Herausforderungen gibt es aktuell mit SGE:
- Probleme der Quellenzuweisung
- Gefahr von Plagiaten
- Ausspielung von veralteten Informationen
- Irrelevante Informationen (z. B., wenn die Suchintention nicht richtig verstanden wird)
- Probleme mit Produktempfehlungen
- Verschwimmen von Meinungen und Fakten
- Unfairer Wettbewerb
- Die Anzahl der Quellen in SGE nimmt aktuell stark zu:
- In den letzten Monaten ist die Anzahl von 4 auf 8 angezeigte Quellen angestiegen
- Es gibt aber auch Suchanfragen mit über 200 Quellen
- Nach Auswertung der Ergebnisse von SGE und den normalen Suchergebnisse, scheint SGE einem ganz anderen Algorithmus zu unterliegen:
- Nur 46 % der SGE-Quellen sind überhaupt in den Top 10
- 43 % der SGE-Quellen tauchen überhaupt nicht in den Suchergebnissen auf
- Wie geht es mit SGE weiter?
- Aktuell wird noch viel getestet, die Ausspielungen ändern sich noch oft
- Bart Goralewicz geht davon aus, dass nach dem Ausrollen der Beta u.a. nach Indien der komplette Launch im Januar 2024 stattfinden wird
- Was kann man nun also tun?
- Man kann schon einmal schauen, wie SGE in den Suchergebnissen für die eigenen relevanten Keywords ausgespielt wird und ob man dort bereits vertreten ist
- Lange Artikel können um eine Zusammenfassung erweitert werden; das soll Google helfen, die Texte besser zu erfassen
- JavaScript Ausführung optimieren, um sich vom Wettbewerb abzuheben
- Schnelle Serverantwortzeiten sicherstellen
- Caching nutzen
- Indexierungsfehler beseitigen und vermeiden
- Der Content sollte nicht von JavaScript abhängig sein
Tom Anthony: Entities are the past: Search is going quantum
- Konzept der Entitäten im SEO bisher: Verschiedene Informationen hängen zusammen und können vor allem über strukturierte Daten dargestellt werden; das geht aber nur bis zu einem gewissen Grad
- ChatGPT ist eine tolle Entwicklung, viel weniger spannend als der Chat-Teil ist jedoch das Language Model dahinter
- Durch Language Models braucht man keine Strukturierten Daten mehr (man sollte aber nicht ganz darauf verzichten); vielmehr sollte man die Energie in den Content stecken, der dann die Language Models trainieren kann
- ChatGPT kann genutzt werden, um bestehende Prozesse zu ergänzen und zu optimieren, um z. B. einzigartige Suchanfragen zu finden (unabhängig vom Suchvolumen)
- E-E-A-T wird weiter an Bedeutung gewinnen, denn Content spielt weiterhin eine wichtige Rolle
- A/B-Testing im SEO ist essenziel, weil man die Algorithmen nicht verstehen kann und daher viel ausprobieren muss
- Fazit: Es kommen große Veränderungen auf uns zu. Google wir Neuerungen in die normale Suche integrieren, lässt also die Chat-Form außen vor, die nicht der bahnbrechende Teil der Entwicklung von ChatGPT war
Louisa Frahm: How to evolve your content strategy for the Google SGE revolution
- Googles Ziel ist es, mit SGE mehr Interaktion mit den Suchergebnissen zu erreichen
- Recap von den bisherigen KI-Entwicklungen bei Google: Transformer Architecture 2017, BERT 2018, MUM 2021
- Recap von den bisherigen KI-angehauchten SERP Features: Knowledge Panels, Featured Snippets, People also asked
- Aktuelle Herausforderungen von SGE
- Link Attribution ist nicht immer klar: Wo kommen die Daten genau her?
- Genauigkeit der Informationen
- Hohe Ladezeiten des Features
- Nicht alle Anfragen werden richtig verstanden
- Wie kann man das tracken?
- Welche Inhalte funktionieren aktuell am besten in SGE?
- Anleitungen / Tutorials
- Lokale Suchen
- Shopping
- Welche Inhalte funktionieren nicht gut?
- Sicherheitsrelevante Themen
- Rechtliche Aspekte
- Spezifische News
- Was kann man jetzt tun? (Anmerkung Claneo: wobei die Empfehlungen keine Neuerungen sein sollten)
- Die eigene Content-Strategie anpassen: Fokus auf Suchintention; „Straightforward“, „snackable“ und Schritt für Schritt Content mit Fokus auf E-E-A-T
- Content Audit durchführen: Welcher Content ist bereits SGE-freundlich und wie performt er? Welche Seiten müssen optimiert werden, damit sie besser zu SGE passen? Welche Lücken gibt es aktuell, die mit neuen Themen gefüllt werden sollten?
- SEO Best Practices beherzigen, z. B. strukturierte Daten anwenden, Bilder SEO, Linkbuilding optimieren
- Nutzendenfreundlichen Content erstellen unter dem Motto „Simple is not stupid“
- Am Ende die zentrale Frage: Wird SGE bleiben? Und wie geht es weiter? Die Antwort zieht sich durch mehrere Vorträge hier:
- Die Zukunft ist ungewiss
- Dezember 2023 ist das aktuell angesetzte Enddatum der Beta von SGE
- Wie es danach weitergeht, ist noch nicht klar
- Es muss aktuell nicht alles umgeschmissen werden; vor allem Ausprobieren, Testen, und Diskutieren sind die Gebote der Stunde
Mordy Oberstein: Google algorithm updates: Making sense of today’s volatile SERPs
- Hauptfrage, die nach jedem Update gestellt wird: Wie viel Auswirkungen hatte das Update?
- Tools vergleichen die Daten mit den Daten der vorangegangenen Updates
- Welches Update hatte mehr Auswirkungen?
- Rote Ausschläge = mehr
- Grüne Ausschläge = weniger
- Dies ist nicht sehr wissenschaftlich und bietet eine Grundlage für starke Volatilität
- Grundannahme beim Lesen der Charts: Je höher der Wert, desto höher sind die Auswirkungen des Updates
- Daher nehmen Tools Neukalibrierungen vor, sie berechnen den Wert der Normalität neu: Anfang des Jahres war eine geringe Volatilität die Normalität (Bsp. SEMrush: Januar bis April war der Wert ca. 3, stieg dann im Sommer auf 7-8. Ohne eine Neuberechnung des Normalwertes würde die Volatilität ab diesem Zeitpunkt als roter Zustand angezeigt werden. Mit der Neuberechnung ist es im Verhältnis eine normale bzw. geringere Volatilität.
- Google rollt über das Jahr verteilt viele verschiedene Updates aus (Helpful Content Update, Core Update, Link Spam Update etc.) Hier ist es für Toolanbieter schwer zu unterscheiden, wo die Auswirkung des einen Updates anfangen und die des folgenden Updates anfangen.
- Tools verwenden dann die „Change comparison“, sie vergleichen also die Baseline der Volatilität vor dem Update und die Veränderung der Volatilität während des Updates. Es werden sich nun die Punkte der Veränderung in der Volatilität angeschaut und nicht mehr die Volatilität insgesamt.
- Der Blick auf die durchschnittlich gewonnenen und verlorenen Rankings ist ebenfalls nicht aussagekräftig, da es für jede Seite unterschiedlich sein kann und ein Durchschnitt in diesem Fall keine Aussagekraft hat. Beispiel: Wenn im Durchschnitt 3,13 Positionen verloren wurden, erkennt man nicht, dass auch Seiten ohne Positionsverluste gibt.
- Eine weitere Tool-Betrachtungen zur Auswirkung eines Updates ist der Anstieg an Seiten, die nach dem Update in den Top 10 ranken und zuvor in den Top 20 gerankt haben.
- Je nach betrachteter Metrik können verschiedene Updates einen höheren Impact gehabt haben.
- ABER: Keine Metrik betrachtet zurückgerollte Updates.
- Im Vergleich zum Vorjahr stieg die Volatilität zwischen 2021 und 2023 immer weiter an. Die Anteile an geringen und normalen Tagen verringerte sich immer weiter und im Jahr 2023 stieg der Anteil an hohen und sehr hohen Änderungen drastisch an.
- Eine Betrachtung der Standardabweichung ist wichtig. Daraus ist zu erkennen, dass 2022 eine geringere Volatilität herrschte als 2021. Der Grund dafür: Es gab eine neue Standard-Volatilität. Erst 2023 stieg mit dem Hype rund um die KI-Entwicklungen auch die Standardabweichung der Volatilität.
- Bis zum Anfang des Sommers war die Volatilität sogar geringer als 2022. Mit dem Release von ChatGPT stieg die Volatilität sprunghaft an.
- Vielmehr ist das Suchverhalten der Nutzenden der Grund dafür, da diese mittlerweile anders suchen bzw. Seiten anders wahrnehmen und Content vermehrt hinterfragen.
- Zudem wird laut Google nicht zwangsläufig KI-Content selbst abgestraft, sondern nur schlechter Content. Es geht somit nach wie vor darum, dass der auf den Seiten zur Verfügung gestellte Content wirklich hilfreich ist und von Menschen geschrieben wurde.
- Die Annahme von Mordy Oberstein: Google versucht die Suchlandschaft zu verstehen und einzuordnen.
- Am Beispiel von Covid ist zu erkennen, dass die Rankings zu Beginn der Pandemie sehr instabil waren, da niemand genau wusste, wonach er oder sie suchen sollte.
- Google musste die Situation erst einmal selbst verstehen und einordnen, wodurch sich die Rankings am Ende stabilisieren konnten.
- So ist es auch in Hinblick auf KI: Google muss die Situation erst verstehen, um sie richtig einordnen zu können.
- Googles Updates haben immer eine Auswirkung, diese lässt sich allerdings nicht anhand von allgemeinen Metriken feststellen.
- Zudem sind die Auswirkungen auch branchenabhängig.
- Ein Blick auf die eigenen Keywords und die Veränderung der eigenen Rankings und die der Wettbewerber ist daher immer noch am hilfreichsten.
- E-E-A-T ist der größte Hebel im Bereich Content. Aus diesem Grund sollten sich Texte auf die wichtigsten Punkte konzentrieren und den Nutzenden das bieten, wonach sie gesucht haben.
- Man sollte also transparent und ehrlich sein, und Google so dabei unterstützen, die eigene Seite zu verstehen und den Nutzen für die Menschen zu stärken.
Ryan Brock: SEO in memoriam: A fond farewell to tactics that don’t matter anymore
- The Funnel (AIDA: Attention – Interest – Desire – Action)
-
- „Gated Content“ (Wenn man sich für eBooks und Whitepaper erst anmelden muss) ist nicht mehr aktuell und mittlerweile wird „ungated“ vor Bücher und Webinare geschrieben.
- Es werden häufig Blogs gelesen, bevor Käufe getätigt werden. Deshalb sollte der Fokus auch auf gezieltem und relevantem Traffic liegen.
- Es sollten keine individuellen linearen Nutzerpfade gebaut werden. Es sollte vielmehr versucht werden, so viele Wege des Suchverhaltens wie möglich nachzubilden.
- Domain Authority
-
- Mehr Backlinks bedeutet nicht mehr automatisch eine bessere Bewertung durch Google.
- Es ist wichtiger Unterseiten und Blogbeiträge zu Themen zu bilden und intern zu verlinken, als sich auf eine reine Backlink-Strategie zu verlassen.
- Keyword Difficulty
-
- Die Keyword Difficulty ist besonders durch Adwords getrieben worden: Wie viele Leute bieten auf ein Keyword? Wie hoch ist der Preis für das Keyword?
- Faktoren für die Keyword Difficulty sind: Domain Authority, Page Authority, Content Qualität, prognostizierte CTR
- Keywords sollten nicht anhand ihrer „Schwierigkeit“ zu ranken ausgewählt, sondern gezielt an die Intention und Ziele für das eigene Unternehmen angepasst werden.
- Suchvolumen
-
- Alle Keyword Datenbanken beginnen mit Google Ads Daten. Google glaubt aber nicht, dass sie Werbung für Fragen verkaufen können.
- Strategien, die rein auf Traffic-Schätzungen aufgebaut sind, können schnell kompliziert und wackelig werden.
- Es sollten mehr Longtail Keywords und Fragen in den Keyword-Strategien berücksichtigt und Unterseiten auf diesen Fragen aufgebaut werden.
- „It’s not about ‚get the traffic‘ – it’s about ‚get the targeted and relevant traffic’”.
- Keyword Kannibalisierung
-
- Es sollten verschiedene Beiträge über dasselbe Thema geschrieben werden, aber in verschiedenen Formen.
- Eine thematische Relevanz (Topic Authority) kann so aufgebaut werden, um sich an das Suchverhalten der Leute anzupassen.
- Verschiedene Fragen sollten in verschiedenen Beiträgen beantwortet werden, um gezielten Traffic zu generieren.
- Angst vor dem Algorithmus
-
- Änderungen am Googles Algorithmus sollten nicht verteufelt werden. Denn alte Praktiken, die früher funktioniert haben und Lücken im Algorithmus ausgenutzt haben, werden zurecht abgestraft. Beispiel: Linkspam durch das Panda-Update
- Solange es sich um hochwertigen und hilfreichen Content für die Nutzenden handelt und hilft, die Suchintention zu erfüllen, wird KI-generierter Content von Google nicht abgestraft.
- Sollte KI jedoch genutzt werden, um minderwertigen und Ranking-manipulierenden Content zu erstellen, wird dieser nach wie vor abgestraft.
Michael King, Lily Ray, Danny Goodwin, Sara Resnick: 2024 SEO trends to get ahead of now
SGE Einfluss auf Kund:innen und Marken Lily Ray:- Wir wissen nicht, wann und ob SGE ausgerollt wird
- Das Ausmaß der Veränderung ist nicht bekannt
- Werden Links und Produkte angezeigt?
- Es ist wichtig, mit den Kund:innen über die Risiken zu sprechen
- Analysieren der Ergebnisse durch Scraping: Welche Keywords rufen SGE hervor? Wie oft tauchen bestimmte Webseiten auf? Wie sieht das Layout aus (Carousel etc.)?
- Auf dieser Basis kann man Vermutungen anstellen, wie hoch das Risiko für bestimmte Webseiten ist
- Ranktracking wird komplizierter und teurer
- Man muss verstehen, wie es funktioniert und wie man optimieren kann
- Suche nach Ergebnissen für verschiedene Arten von Begriffen
- Veränderung ist jederzeit möglich
- Man sollte Brand Autorität aufbauen und zeigen, in welchen Bereich man Expert:in ist
- Art der Nutzung ist wichtig, KI wird nicht mehr weggehen; man sollte es daher gewissenhaft einsetzen
- Google ist bereit für KI-Content und wird diesen als solchen erkennen und ggfs. abstrafen
- Bildersuche ist interessanter geworden und die Nutzung wird stetig weiterentwickelt
- KI kann im Backend Coding unterstützen
- Skeptische und vorsichtige Herangehensweise
- Bestehenden Content mit KI unterstützen, z.B. Zusammenfassungen, FAQs
- Nutzung zur Generierung von strukturierten Daten
- Redaktioneller Aspekt; rechtzeitig auf Trends und News aufspringen
- Strukturierte Daten für Bilder und Schemas
- Reparieren, was bereits kaputt war
- News und Publisher Google Discover & News
- Strategische Arbeit ist schneller und effizienter; bessere Automation von Prozessen
- Schnellere Arbeit für Kund:innen-Aufträge
- Nutzung von generativer KI für schnellere Arbeitsabläufe; internes Link-Targeting, Erstellung von Meta Daten
- Es ist schwieriger, Seiten indexiert zu bekommen
- Link Building ist schwieriger: Man benötigt mehr relevante Links
- Grey SEO-Strategie, z.B. massenhafte Content-Erstellung in kurzer Zeit
- Konstante Platzierung in den Rankings
- SERP Snippets
- Meta-Angaben alleine reichen nicht mehr aus, Content auf der Seite selbst hat größeren Einfluss
- Yandex Leak; Boosting oder Abstrafung bestimmter Seiten
- DOJ-Verfahren und das Gewinnen neuer Erkenntnisse daraus: Verwendung von Klicks in Rankings etc.
- SEOs sind auf Aussagen ehemaliger Google Mitarbeitenden angewiesen und in der Regel 15 Jahre hinter Google‘s aktuellem Stand
- Indexierungsprobleme: Welche Seiten werden indexiert und welche nicht?
- Anzahl an Updates
- Gesamte Diskussion rund um KI
- Google‘s Reaktion auf KI und wie sie damit umgehen: starker Fokus von Google auf KI, bleibt die organische Suche auf der Strecke?
- SGE-Implementierung
- Rückgang von Impressionen und Klicks im News- und Publisher-Umfeld
- Transparenz mit steigendem Einsatz von KI
- Klare Kommunikation, die daraus resultiert
- Google unter viel Druck durch Wettbewerb, wie bspw. TikTok, ChatGPT
- SGE gut für Google, aber schlecht für SEOs
- Was ist SEO? Machen wir es nur für die Suchmaschine?
- Kombination aus LLM und Suchmaschine
- Informationen werden gespeichert und für die Antwort der Anfrage verwendet (ChatGPT). Hinzu kommt, dass die Top 20 Seiten der Anfrage durchgegangen werden und die Antwort mit neuem Wissen aus diesen Seiten erweitert wird.
- Mehr personalisierte Antworten können generiert werden
- Kurzfristig: Dramatische Änderung wie Nutzende mit der Suche interagieren. Wenn die passende Antwort direkt durch SGE angezeigt wird, wozu sollten sie dann noch auf Suchergebnisse klicken?
- Langfristig: Nutzende werden mehr detaillierte Suchanfragen entwickeln – Änderung zu Content Optimierung auf Longtail Keywords
- Neues E-Experience ist seit Einführung deutlich spürbar
- Erfahrungen aus erster Hand und User-generated Content werden deutlich an Bedeutung gewinnen
- Kampf gegen KI-Content: Google weiß, dass Nutzende „real answers from real people“ haben möchten
- Reddit, Quora werden immer stärker in den Top Positionen landen und ein größerer Wettbewerb werden als bisher
- Praktiken, die früher funktioniert haben, werden mit der Zeit nicht mehr funktionieren
- Langfristige Strategien werden wichtiger, Konzentration auf Quick Wins weniger
- Interne Kommunikation muss abgestimmt werden, damit alle zu laufenden Neuerungen abgeholt werden
Ryan Maloney: Handling a decline in website traffic: Strategies for recovery
Warum geht organischer Traffic zurück?- Algorithmus Updates & Änderungen der Suchergebnisseiten (SERPs)
- Was hat Google verändert (Welches Update, welche Branche)? Die Strategie muss dann entsprechend angepasst werden.
- Die Performance muss im Blick behalten werden, um herauszufinden, ob die Strategie funktioniert.
- Saisonalität
- Gibt es typische Schwankungen zu dieser Zeit im Jahr? Welcher Bereich des Geschäftes ist am meisten betroffen?
- Zu diesen Zeiten muss der Evergreen Content beobachtet werden und die Content-Strategie sollte entsprechend geplant werden, um Autorität zur richtigen Zeit aufzubauen.
- Technische Probleme
- Technische Probleme sollten durch Tools im Blick behalten werden. Wird regelmäßig mit der IT über technisches SEO gesprochen?
- Wenn technische Probleme reduziert werden, sollte beobachtet werden, ob sich die organische Performance erholt.
- Einzelbereiche der Webseite können geclustert werden.
- Verschlechterte Keyword Rankings
- Es sollte analysiert werden, ob sich verschlechternde Keywords auf den richtigen Seiten ranken.
- Quick Win Keywords sollten identifiziert werden.
- Es sollte eine Möglichkeit gefunden werden, Keywords effektiver zu bespielen.
- Es muss identifiziert werden, warum der Traffic zurückgeht. Anschließend muss ein Maßnahmenplan erstellt werden. Während dessen Umsetzung sollten Performance-Veränderungen beobachtet werden.
Eric Enge: How to align technical and content optimization in 2024
- Durch SGE ist es nun wichtiger denn je, dass technisches SEO und Content Marketing zusammenarbeiten.
- KI kann helfen, viel Content zu produzieren, aber es kann maximal unterstützend wirken.
- Relevanz und Qualität sind die wichtigsten Rankingfaktoren: Wenn es keinen relevanten Content gibt, wird man damit auch nicht ranken können.
- Relevanz wird vorrangig durch Content getrieben, aber einige technische Faktoren spielen auch mit rein.
- Nutzende verbrauchen die meiste Zeit damit, nach bestimmten Produkten zu suchen (82% B2C / 76% B2B, Quelle: Bloomreach)
- Die Customer Journey von jedem Nutzenden sieht anders aus. Google rankt am liebsten Seiten, die die Bedürfnisse vom Großteil der Nutzenden erfüllen.
- Das erste Ergebnis befriedigt 11% der Nutzenden
- Ergebnisse bis Position 9 jeweils nur 3% der Nutzenden, also in Summe 24%
- Die nächsten 20 Ergebnisse befriedigen jeweils 0,9% der Nutzenden, also 18%
- Die nächsten 50 Ergebnisse befriedigen jeweils 0,3% der Nutzenden, also 15%
- Damit man das schafft, muss man den Longtail der Suchanfragen berücksichtigen.
- ~95% der Suchanfragen sind Longtail Keywords & ~35% des Suchvolumens
- Sie sind weniger kompetitiv und konvertieren besser
- Man sollte also relevante Keywords identifizieren, sie nach ihrer Position im Customer Journey sortieren und für alle relevanten Themen Content erstellen
- Dieser sollte in einer logischen Informationsarchitektur mit starken internen Links bereitgestellt werden, die den Nutzenden eine einfache Navigation erlaubt
- Die Rolle von technischem SEO:
- Crawling & Indexierung sind für die Auffindbarkeit des Contents verantwortlich: Sitemaps können helfen, die IndexNow API kann nun auch ständig Seiten indexieren (funktioniert für Bing und Yandex)
- Informationsarchitektur & interne Links sind für Relevanz & Autorität verantwortlich: So können Entitäten und Verbindungen dargestellt und Kontext geschaffen werden
- Infrastruktur & Code können die Erfahrung der Nutzenden verbessern: Dazu gehören die Server- & Datenbank-Infrastruktur, effizientes Coding, CSS und JavaScript Management und die Server-seitige Bereitstellung
- Fazit:
- Investitionen in technisches SEO sorgen dafür, dass Content-Bemühungen auch organischen Traffic hervorrufen.
- Investitionen in Content sorgen dafür, dass Bemühungen im technischen SEO auch organischen Traffic hervorrufen.
Olya Ianovskaia: Leveraging AI for smarter technical SEO in site migrations
- Migrationen stellen eine Möglichkeit für einen Neustart dar.
- Wenn SEO frühzeitig an Bord geholt wird, kann die gesamte Erfahrung mit Nutzenden und der Suche neu gedacht werden.
- Schlüsselelemente, die dann betrachtet werden sollten:
- Informationsarchitektur
- Taxonomien
- Filterung & Sortierung
- Crawling- & Indexierungsmanagement
- Seitentypen
- URL-Strukturen
- Produkte & Produktvarianten
- Meta Daten & strukturierte Daten
- Seiten-Rendering
- Pagespeed und Core Web Vitals
- Hierarchische Produkt-Taxonomie bauen
- Muss für jede Seite individuell gemacht werden, da die Komplexität variiert
- Datenqualität bestimmt Genauigkeit
- Mit bestehender Taxonomie abgleichen & validieren
- Indexierung basiert auf Relevanz, Angebot & Nachfrage
- Auch nicht SEO-relevante Aspekte berücksichtigen
- Konsolidierung vornehmen
- Nachfrage verstehen & Seiten anreichern
- Master-Liste mit relevanten Keywords erstellen
- Abstimmung der Taxonomie mit Suchanfragen (auch Mid- und Longtail)
- Kann genutzt werden, um Landingpages anzureichern, Taxonomien zu erweitern und interne Verlinkung zu entwickeln
- Neuen Content durch das Zusammenfassen von Suchintentionen erstellen
- Suchintentionen zusammenfassen
- Trends & Saisonalität berücksichtigen
- Kann für Content und für die interne Verlinkung genutzt werden
Lauren Busby: Supercharge your SEO tool stack with AI
-
- “It’s not a robot uprising”: Man muss lernen mit KI zu leben und sie zu nutzen
- Nicht jedes Tool funktioniert für jeden SEO
- Google Bard = Google’s KI-basierter Chatbot
- Hier gibt es SEO Erkenntnisse direkt von der Quelle (Google)
- Vorteil: Kann Webseiten live crawlen – Das bedeutet, man kann akuelle Empfehlungen ableiten
- Anwendung: Schema Markup, Wettbewerbsanalyse, OnPage Optimierungsvorschläge, Erstellung von Meta Daten, Generierung von Themen mit SEO-Relevanz, Content-Erstellung
- ChatGPT 4 = OpenAI’s KI-basierter Chatbot
- Vorteil: Chatbot der nächsten Generation, kann mit Plugins erweitert werden
- Nachteil: Datenset aus 2021
- Anwendung: Content-Erstellung, Content-Briefings, Content-Gliederungen, komplette Artikel, viel Content
- ChatGPT Plugin Bramework = Intelligentes SEO Analyse-Tool
- Vorteil: Live-Analysen der SERPs und der Wettbewerbslandschaft
- Anwendung: Onpage Analyse für ein bestimmtes Keyword, Wettbewerbsanalysen, SERP Analysen
- ChatGPT Plugin Noteable = Automation-Tool für Datenanalysen
- Beyond ChatGPT BulkGPT = KI Workflow-Tool
- Vorteil: beschleunigt ChatGPT, Bing Search und Scraping-Aufgaben mit Hilfe eines KI-Workflows
- SurferSEO = KI-basiertes Tool zur Content-Erstellung & -Optimierung
- Vorteil: Surfer SEO’s Content Score
- Anwendung: Content-Optimierung, SERP Analysen, Onpage Optimierung, Keyword-Recherchen
- Auch geeignet für das Clustern von Keywords mit minimalem Input
- Semrush AI Writing Assistant = KI-basierte Content-Erstellung
- Vorteil: Integration in ein bestehendes SEO-Tool
- Anwendung: spezialisierte Content-Erstellung (z.B. FAQs)
- Andere Tools: NeuronWriter. ScaleNut, Frase, Jasper
- LinkWhisper = KI-basiertes Tool für interne Links für WordPress & Shopify
- Vorteil: Automatisiert internes Linkbuilding basierend auf wichtigen Keywords
Lydia Flügel
Lydia ist Head of SEO bei Claneo. Dort berät sie Kund:innen in der Suchmaschinenoptimierung und führt technische und strategische Analysen durch. Bevor sie zu Claneo kam, war sie bereits in anderen Agenturen sowie auf Unternehmensseite im Online Marketing von MeinFernbus (heute FlixBus) tätig und verantwortete u.a. die Bereiche SEO und Social Media.