SEOkomm

SEOkomm 2021Recap vom 19. November 2021 in Salzburg

Zum elften Mal rufen Oliver und Uschi Hauser nach Salzburg: die Online Expert Days, bestehend aus der Online Marketing Konferenz OMX sowie der SEOkomm: die Treffen konnten unter Auflagen und aufgrund der Umstände zum ersten mal als Hybrid-Event stattfinden.

In Salzburg vor Ort waren am Freitag, 19. November 2021 so viele Besucher wie bei der ersten SEOkomm, der Rest war dieses mal online dabei. Beinahe wäre es ein reines Online-Event geworden, denn es war der letzte Tag, an der die Veranstaltung in Salzburg erlaubt war und durchgeführt werden konnte.

KeynoteBastian Grimm

These: Tech-SEO spielt bald keine große Rolle mehr; das isoliertes Betrachten von Rankingfaktoren ist eh vorbei, Links haben an Relevanz deutlich eingebüßt. Was für den Einsteiger-SEO wie eine Hiobsbotschaft klingt, legte Bastian Grimm in seiner Keynote schlüssig und technisch untermauert dar.

Die erhöhte Update-Frequenz im Suchalgorithmus 2021, die wirklich herausragenden Fortschritte bei angewandten Machine Learning und Künstlicher Intelligenz: Google versteht immer mehr und besser die Inhalte des WWW. Nicht nur Text, sondern auch Bilder und Videos. Die technischen Unzulänglichkeiten einer falsch gesetzten Überschriftenauszeichnung – ja nicht mal mehr die Sprache – hindern Google an der Indexierung und Ausgabe als Suchergebnistreffer, wenn es die beste Antwort auf die Frage der Nutzer bietet. Tech-SEO wird an Bedeutung verlieren in der jetzigen Form verlieren, aber die echten Experten werden sich mehr auf das Testen der neuen Technologien fokussieren. KI wird die nächste Suche grundlegend verändern.

Aber auch mit Kritik an Google sparte Bastian nicht:

  • Scrollen statt Blättern: Seite 1 für alle – v. a. vermutlich aus Gründen des Wettbewerbs: bisher gibt es Rüffel, weil Google Ergebnisse mit teilweise über 40% eigenen Diensten lieferte und Konkurrenz ausstach. Keine zweite Seite – kein Problem!
  • Google baut Werbeflächen weiter aus und die aktuellen Bemühungen wirken schon fast wie eine Verzweiflungstat
  • nach wie vor gibt es viele direkte Ergebnisse, der Nutzer bleibt im Google-Kosmos und klickt nicht auf die Quelle

Screaming Frog für FortgeschritteneStephan Czysch

Schöne Idee für ein neues Projekt: Crawls des Screaming Frog zu Google Drive exportieren, jede Woche automatisch laufen lassen und die Daten mit Data Studio visualisieren – alles machbar mit dem grünen Frosch-Programm.

Weiterer guter Tipp: Vergleichsfunktion für Mobile/Desktop nutzen.

Zu den Vortragsfolien »

Core Web VitalsMario Fischer

Ein Ritt durch die Welt der Core Web Vitals, kurz CWV. Google ist sich selbst nicht immer einig und verfährt auch gerne mal nach dem Prinzip “Wasser predigen und Wein saufen”: sie machen bei ihren eigenen Seiten auch vieles nicht richtig und bestehen oftmals ihre eigenen CWV nicht.

Dass es auch nicht immer nur auf einen hohen Lighthouse-Score ankommt, verdeutlichte der Prof. am Beispiel von OTTO: Score von über 90 bedeutet nicht automatisch auch CWV bestanden. Wer hier wirklich glänzen will, muss tief in die Details gehen.

Zu den Vortragsfolien »

Core Web Vitals – Beyond the basicsMaximilian Schirmer

29 Jahre alt, Webentwickler und Begründer des Portals tarife.de: Maximilian Schirmer ist ein echter Praktiker: er programmiert auch selbst und weiß daher, was die Umsetzungen und CWV in der Praxis bedeuten.

  • webpagetest.org (gut weiterentwickelt)
  • footer-js nicht mehr nutzen, lieber deferren
  • CDN als Reverse-Proxy nutzen (bspw. bei kleinen WordPress-Seiten)

3 Gedanken zu SEOKarl Kratz

Fast schon philosophisch anmutend ging es nach der Mittagspause mit Karl Kratz in Track 2 weiter.

Schönste Sätze über sequentielle Handlungen bei automatisierungsfähigen Prozessen: „systematische Entwertung von menschlicher Lebenszeit“. Als Beispiel dient ein Newsletter für ein Baby-Portal: die 9 Monate bis zur Geburt und die 24 Monate danach sind für Online-Marketer gut planbar. Jedes mal einen neuen Newsletter schreiben und an alle schicken: da ist man falsch unterwegs.

„Mir geht’s gerade gut“: das ist ein guter Moment für eine Transformation!

Fazit

Eine außergewöhnliche SEOkomm in vielerlei Hinsicht: wenig Menschen vor Ort sorgten für eine entspannte Stimmung, fehlende Warteschlangen und intensives Netzwerken. Für die anderen gab es neuen Input gemütlich in’s Büro oder das heimische Arbeitszimmer. Die kurzfristige Bereitstellung des Live-Streams war ein hoher Aufwand, der sich aber bezahlt machte. Vielen Dank an Oliver und Uschi Hauser sowie das ganze Orga-Team!

Bilder und Text: Sebastian Blum

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

Salzburg 19

SEOkomm 2019 Recap vom 22. November 2019 in Salzburg

Der zehnte Geburtstag der SEOkomm wurde mit einem super Programm, guten Vorträgen und einer exzellenten Organisation von Oliver Hauser veranstaltet.

KeynoteMarcus Tandler

Die zehnte Keynote von Marcus war in meinen Augen die beste, die er je auf der SEOkomm gehalten hat. Vierhundert Folien in 45 Minuten, mit einem sensationellen Überblick über die letzten Jahre und die neuesten Entwicklung im SEO-Bereich, waren der beste Einstieg in den Tag. Richtig schade, dass Marcus ankündigte, nächstes Jahr nicht mehr der Keynote-Speaker zu sein.

Data-driven SEO mit Warehouse Sebastian Erlhofer

Sebastian müsste man von seinen Büchern „Suchmaschinenoptimierung“ kennen und dieses Jahr hat er sein Open-Source Projekt namens dawis vorgestellt, welchen sie in der Agentur entwickeln. Ziel soll es sein, die tägliche Arbeit mit Daten zu automatisieren und zentral über die Zeit hinweg als SEO-Datawarehouse bereitzustellen.

Uns kommt es sehr gelegen, dass Sebastian auch Python als Programmiersprache verwendet, da wir selbst für unsere Reports und Auswertungen auf Python setzen. Ich bin sehr gespannt, wie es sich entwickeln wird: grundsätzlich kann ich mir aber durchaus vorstellen, dass wir unsere Tools durch dawis ersetzen werden.

Mein Hauptlearning bei dem Vortrag war jedoch:
„Bevor Ihr Titel optimiert, schaut ob Google den Titel überhaupt verwendet!“

So erhöhst du die Klickrate von Titles und DescriptionsJulian Dziki

Perfekt passt natürlich die Überleitung von Sebastian Erlhofer, dass man erst mit Hilfe eines Web-Crawlers auf der Webseite und bei Google überprüfen muss, ob der Titel überhaupt gleich ist, bevor wir uns der Titel-Optimierung widmen.

Julian hatte sehr schöne Beispiele mitgebracht, wie er mit seinem Team die Klickrate von Titeln und Beschreibungen erhöht hat und welche Best-Practises er empfiehlt.

Der Vortrag war eine gute Ergänzung zu seinem Vortrag 2018 und sehr unterhaltsam.

JavaScript & SEO ohne Pleiten, Pech und PannenMartin Splitt

Martin von Google hatte sich dieses Jahr auf das Thema „Rendering“ konzentriert und sehr gute Tipps gegeben. Aktuell ist die Dauer der Rendering Queue im Median 5 Sekunden, d.h. Google rendert fast in Echtzeit die Webseiten nach dem Crawling.

Wichtig ist natürlich bei JavaScript-Webseiten, dass die gleichen Signale wie bei normalen Webseiten zum Einsatz kommen:

  • Richtiger Status-Code
  • Individuelle Titel & Beschreibung pro Seite
  • Korrekte Verlinkung
  • Einsatz von strukturierten Daten

Die Empfehlung von Martin ist der Einsatz von Server-Side-Rendering in Verbindung mit Hydration, jedoch machen dies sehr viele falsch. Es bleibt also eine Wissenschaft für sich, reine JavaScript-Seiten suchmaschinenoptimiert zu gestalten und auszuliefern.

Technical SEO TestingBastian Grimm

Bastian hatte 2019 eine Vielzahl von SEO-Tests mit seiner Agentur Peak Ace durchgeführt und die Ergebnisse in seinem Vortrag präsentiert. Die Tests waren für mich sehr interessant und mit den meisten Ergebnissen hätte ich überhaupt nicht gerechnet.

Mein Hauptlearning war, sich speziell die JavaScript Debug Logs in der Search-Console immer genau anzuschauen und diese gezielt einzusetzen.

Tag ManagerSebastian Blum

In meinem eigenen Vortrag ging es auch 2019 wieder um den Google Tag Manager. Im ersten Teil habe ich kurz die Theorie und meine Best Practises erläutert und warum wir genau auf diese Art und Weise mit dem Google Tag Manager arbeiten.

Für den zweiten Teil habe ich mir eine Beispiel-Webseite ausgesucht, bei der ich den integrierten Tag Manager über meinen Chrome-Browser blockiert habe und einen neuen Demo-Container eingebaut habe. An Hand dieser neuen Implementierung habe ich meine Arbeitsweise am Beispiel präsentiert.

Solltet Ihr an den Folien interessiert sein, schreibt mir gerne eine E-Mail an kontakt@sblum.de.

Fazit

Eine sehr herzliche und perfekt organisierte Veranstaltung. Wir kommen auf jeden Fall im nächsten Jahr wieder.

Bilder und Text: Sebastian Blum

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

Salzburg 18

SEOkomm 2018 Recap vom 23. November 2018 in Salzburg

Die neunte Ausgabe der SEOkomm in Salzburg wartete wieder mit einem vollen Programm rund um die Suchmaschinenoptimierung auf. Zum ersten mal ist Sebastian Blum als Speaker zum Thema Google Tag Manager vertreten.

KeynoteMarcus Tandler

Vorteile durch Sichtbarkeitsverlust: was zunächst unsinnig klingt, bringt Vorteile. Google schmiss zuletzt massenhaft Seiten aus den Top 10 der Suchergebnislisten, die ganz selten geklickt wurden, so zum Beispiel bei T3N: über 2,7 Mio Impressionen „verloren“, jedoch damit gerade mal 5.000 Klicks eingebüßt – definitiv vernachlässigbar gegenüber den eigentlichen Rankings.

Search Console nutzen

Die Zahlen hierzu stammen aus der Google Search Console, denn „die Leistungsdaten der GSC sind einfach die besten Daten für die SEO-Performance der Website“, so Tandler.

Auch sollte die GSC nicht nur über die Weboberfläche, sondern vor allem via API genutzt werden: bis zu 25.000 Zeilen pro API-Call sind inzwischen möglich. Die Vermutung dahinter: Google will das SERP-Scraping eindämmen, da immer noch über 75% der Suchabfragen von Bots durchgeführt werden, eben auch um Rankings, Trends und Neuerungen zu ermitteln. Die massenhaften Abfragen können sogar so weit reichen, dass selbst für die echten Nutzer Geschwindigkeitsbeeinträchtigungen bemerkbar wurden – geht bei dem auf Geschwindigkeit getrimmten Unternehmen aus Mountain View gar nicht.

kona

Ziel: eine Software zu entwickeln, die linguistisch so umfassend ist wie unsere Sprache. Nicht mehr tippen & lesen, sondern zuhören & verstehen. Nicht mehr langwierig nach den Informationen auf einer Seite suchen müssen, sondern direkt die Antwort bekommen. Google beginnt bereits damit, selbstständig mit Anchor- und Headline-Links direkt zur „richtigen“ Stelle zu springen: zu den „fraggles“, also den granularen Informationen. Sie wollen keine Webseiten mehr ranken, sondern Informationen. Passend dazu nun auch WordPress neue Technik mit Blocks, welche von Google später direkt via API statt über Crawling abrufbar sein soll. Da WordPress inzwischen für 30% der weltweiten Websites eingesetzt wird, ist die Wirkung dazu natürlich enorm.

JavaScriptMartin Splitt (Google)

JavaScript: ein Name, aber verschiedene Bedeutungen. Ursprünglich als serverseitige Sprache angedacht, wird es heutzutage massenhaft in Browsern eingesetzt und sorgt seit jeher bei vielen Admins für Kopfzerbrechen. Vor allem neue, komplett auf JavaScript basierende Websites stellen neue Herausforderungen an die Suchmaschinen.

Hybrid-Rendering

War bei HTML-Seiten mit angereichertem JavaScript zur nachträglichen Filterung oder Sortierung der Content noch komplett im Quelltext vorhanden, lädt nun JavaScript oftmals selbst Content nach, z. B. bei Single Page Applications (SPA). Das HTML-Gerüst hingegen enthält diesen Inhalt nicht mehr. Das stellt nicht nur den Google-Bot vor Probleme, sondern kann auch zu Einschränkungen beim Nutzererlebnis führen. Denn vor allem bei einfachem, „nur“ clientseitigem Rendering und mobiler Nutzung ergeben sich Perfomancebeeinträchtigungen. Besser wäre daher eine Hybrid-Rendering-Lösung, also Server-side Rendering + JavaScript im Browser. Das ist natürlich deutlich aufwändiger, bietet dafür aber dann das Beste aus beiden Welten.

Google-Bot & JavaScript

Wenn der Bot beginnt, eine Seite zu crawlen, lädt er den HTML-Inhalt in einen Processor und gibt die ersten Links gleich wieder zurück in die Crawl-Warteschlange. Wenn Zeit ist („das Web ist groß“), wird das HTML dann erst noch zusätzlich gerendert und somit erst das JavaScript ausgeführt. Dieses gerenderte HTML geht dann wieder zurück zum Processor und die neu hinzugekommenen Links gelangen dann erst in die Crawl-Warteschlange. Bei reinen JavaScript-Seiten wird diese erste Indexierung jedoch rausgeworfen. Hier wird laut Martin richtig SEO-Potential verschenkt, da das Rendering oft stark verzögert stattfinden kann.

Data-driven Technical SEO: LogfilesBastian Grimm

Kein Webtool und kein Programm kann das Verhalten des Google-Bots auf der eigenen Website aufzeigen: nur die eigenen Server-Logfiles sind dazu in der Lage. Das Problem dabei: Logfiles sind eine riesige Menge Datenwust. Deshalb müssen vor einer Logfile-Analyse die richtigen Fragen gestellt werden, um wirklich einen Nutzen daraus zu ziehen.

Logfiles müssen dabei nicht zwingend personenbezogene Daten beinhalten: vor allem, wenn bereits bei der Erhebung nach den Suchmaschinenbots gefiltert wird, ist die Verwendung und Verarbeitung der Logs problemlos datenschutzkonform möglich.

Tools zum Analysieren von Logfiles

  • Bastian nennt als Einsteiger-Tool in die Welt der Logfiles den ScreamingFrog Logfile Analyzer. Denn spätestens wenn die Daten größer werden und im Team an der Auswertung gearbeitet wird, fällt die praktische Desktop-Anwendung aus.
  • Das Gegenstück zum „kleinen ScreamingFrog Logfile Analyzer“: Splunk Enterprise für Large-scale Log-Management. Kostet richtig, aber für große Unternehmen entsprechend gut geeignet.
  • Bekanntestes Setup & Open-Source: Elasticsearch (Daten), Logstash (Processing) & Kibana (Visualisierung). Aufwändig in der Grundinstallation und bis die ersten funkelnden und aussagekräftigen Daten vorliegen, aber beliebig skalierbar und abgesehen von der Einrichtung keine extra Kosten für Gebühren.

Tipps für den Start

  • Zuerst werden die Logfiles auf Anomalien im Zeitverlauf (also Peaks) untersucht: gibt es extreme Ausschläge? Falls ja: wie lassen sich diese erklären (außer mit falschen Daten)?
  • Immer die Crawl-Frequenz nach User-Agent im zeitlichen Verlauf betrachten. Hierbei helfen Visualisierungen für eine schnelle Übersicht. Wie oft schaut der mobile Bot von Google vorbei, wie oft der Desktop? Werden wichtige Seiten innerhalb von 30 Tagen nicht vom Google-Bot besucht, gibt es dringenden Handlungsbedarf! Ebenso bedarf es eines Vergleichs der vermeintlich wertvollsten Landingpages vs. Crawl-Frequenz. Bei Missverhältnis vor allem die interne Verlinkung verbessern.
  • Suche nach weiteren Bots und Scrapern und diese bei Bedarf via nginx- oder .htaccess-Konfiguration aussperren, um Server-Last zu reduzieren. Viele geben sich auch nur als Google-Bot aus, sind es aber gar nicht. Daher immer mit Reverse-DNS prüfen.
  • Komprimierung und Bildoptimierung können ebenfalls mit Logfiles analysiert werden: größte Datenpakete identifizieren und prüfen, ob alle Performance-Optimierungen auch wirklich greifen.
  • Auch die Logfiles zu JSON-, XML- und JS-Dateien analysieren. Werden die Sitemaps von den Suchmaschinen überhaupt regelmäßig abgefragt oder liegen sie komplett ohne Besucher auf dem Server rum?

Google Tag Manager plus Data Layer: deine besten Freunde im Online MarketingSebastian Blum

Wenn Marketing-Abteilungen bei der IT graue Haare verursachen, kann ein Grund Google Tag Manager lauten. Das mächtige Tool birgt für eine Website ein wahnsinniges Verbesserungs- und Gefährdungspotential zugleich. Damit zumindest die klassischen Probleme, welche die Performance und Funktionalität beeinträchtigen, reduziert werden können, stellte Sebastian Blum die Vorteile des Data Layer und den Einsatz von mehreren Containern auf einer Website für die jeweils unterschiedlichen Zwecke vor. Eine ausführlichere Version des Vortrags findet sich in unserer Zusammenfassung unter https://www.sblum.de/tagmanager.

Fazit

Wir bedanken uns wieder ganz herzlich bei Oliver Hauser, seiner Frau und dem ganzen Team für die Organisation, den Speakern für die genialen Vorträge und allen, die bis hierhin gelesen haben. Bis nächstes Jahr zur sage und schreibe zehnten SEOkomm!

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

Salzburg 17

SEOkomm 2017 Recap vom 17. November 2017 in Salzburg

Oliver Hauser und sein Team haben wieder geladen: SEOkomm in Salzburg – Ausgabe 8. Nach den spannenden Vorträgen von letztem Jahr war klar, dass wir ebenfalls wieder mit dabei sind. Gesagt, getan: um 6 Uhr in der Früh saßen wir im Auto und bahnten uns den Weg nach Salzburg.

Um 8 Uhr ging es am Einlass noch gemütlich zu, die ersten Teilnehmer trafen ein und der Kaffee lief. Vorbereitung Tagesplanung:

  • Keynote mit Marcus Tandler: eh klar.
  • Datenorientiertes SEO mit der GSC: gebucht.
  • JavaScript SEO: sollte man sich mal anhören.

Weiter als bis über den Mittag hinaus gelangt die Planung nicht – los geht es auf der Main Stage mit der Begrüßung: Oliver sagt Guten Morgen zu über 900 SEOs und der Moderator Tobias Fox leitet den Slidestorm mit 420 Folien ein.

Keynote: Position ZeroMarcus Tandler

Knowledge-Graph, AdWords, Karussel-Anzeige – Schlagwörter, die die Teilnehmer schon vor der Keynote beschäftigen. Was passiert in der SEO-Welt, wenn das streben nach Platz 1 kein Garant mehr für hohe Click-Through-Rates ist, weil die Suchintention bereits von erweiterten Antworten geliefert wird oder durch bezahlte Anzeigen bereits befriedigt wird?

Marcus beginnt erzählt von der Umfirmierung von "OnPage.org" zu "Ryte". Dafür hat das Team, neben den typischen Hausaufgaben auch viel WDF*IDF eingesetzt und verschiedene Wiki-Artikel damit verbessert. Die Platzierung für den Suchbegriff “Redirect” steig an, aber die CTR sank: Redirect wurde plötzlich als Knowledge-Graph gelistet, worüber Google jedoch keine Statistiken liefert.

Die Statistiken in der Google Search Console, kurz GSC sind auch häufiger problematisch, denn Sitelinks unter der Beschreibung zählen als 1.0 Platzierung rein, gemischt mit der Hauptseite ergeben sich Zahlen, die mit Vorsicht zu genießen sind – und korrekt interpretiert werden müssen.

“Mit gutem SEO erhält man nicht mehr als eine Chance”. Und wenn die Chance besteht, sollten die SEOs und Webmaster diese auch nutzen.

Weitere Themen: Fake News, Speed mit AMP inklusive höherer CTRs & Conversion-Rates und mobile Index. Dieser wird laut Marcus keine Evolution, sondern eine Revolution. So wie Coffeine 2009 die Google Suchergebnisse verändert hat, wird der mobile Index eine ähnlich hohe Umwälzung vor und hinter den Kulissen mit sich bringen.

Hosting ist effizienter als Crawling: Google will lieber via API die relevanten Inhalte verarbeiten, statt sie mühsam über Crawler abzurufen. So probiert Google aktuell via Jetpack und JSON-LD wordpress.com-Inhalte abzurufen, ohne dazu umständlich die HTML-Seiten durchgrasen zu müssen.

Datenorientiertes SEO mit Fokus auf die GSCSebastian Erlhofer

Die Google Search Console stand auch bei der Präsentation von Sebastian im Vordergrund. Da nur die wenigsten Unternehmen Big Data für Ihre Web-Analyse verwenden, empfiehlt Sebastian vorerst nur die Nutzung von Google Analytics, Google Search Console, Server-Logs, eigene nWebsite-Crawls mit Screaming Frog und Co.

Google Search Console (GSC)

  • Daten nach Geräte-Kategore und Suchtyp unterscheiden
  • 1.000 URL-Grenze pro Tag beachten
  • Daten regelmäßig sichern

Sobald ein Mehrfach-Ranking in der GSC erkennbar ist, sollte die wichtigste Seite optimiert und die anderen eliminiert werden.

Crawl der eigenen Website mit Screaming Frog und danach die Berechnung in Gephi. Alternativ Deepcrawl oder audisto nutzen, um PageRank, ChiRank und Co. zu ermitteln.

Neben SEO LogFileAnalyzer auch app.rawgraphs.io für Log-File-Analyse nutzen, damit vor allem ein Ziel erreicht werden kann: “Nutzt Daten statt zu raten”.

JavaScript SEOArtur Kosch

Gleich ob AngularJS, ReactJS, oder jQuery: JavaScript-Webseiten werden immer beliebter. Doch für ein organische Auffindbarkeit stellen diese JavaScript-Lösungen eine große Herausforderung für Google dar.

Daher stellt Artur vorab die Frage: wie interagiert der Crawler mit JavaScript? Aktuell agiert der GoogleBot mit dem Web-Rendering-Service von Chrome 41. Diese Version ist von 2015 und soll erst kommendes Jahr wieder aktualisiert werden. Daher sollte zum Debuggen und Testen diese Chrome-Version bzw. als Headless-Variante verwendet werden – neben dem klassischen Abrufen & Rendern aus der Search Console. Features wie HTTP/2, Websocket-Protokoll, IndexedDB und viele mehr werden nicht unterstützt. Hilfreich ist hier caniuse.com, um unterstützte Techniken zu verifizieren.

Für Screaming Frog Nutzer: Crawling mit JavaScript-Unterstützung aktivieren. Der Time-Out sollte wie beim Google-Bot maximal fünf Sekunden betragen.

Eine Lösung für eine bessere Indizierung in Suchmaschinen bieten kostenpflichtige Prerendering-Dienste. Dabei werden die Zugriffe der Crawler per User-Agent-Weiche auf die Prerender-Server umgeleitet. Die Herausforderung besteht hierbei wie beim Caching in der korrekten Aktualisierung der Inhalte.

Machine-Learning mit Word2VecStefan Fischerländer

Machine Learning ist eine Methode, die bei Google alles auf den Prüfstand stellt. Mit diesen Worten läutet Stefan die Tech-Session über maschinelles Lernen mit Vektoren ein.

Clustering beschreibt das Zusammenfassen einzelner Elemente oder ganzer Datensätze, welche mittels Algorithmen automatisiert werden können.

Machine-Learning ist nicht als künstliche Intelligenz zu verstehen, sondern bezeichnet vor allem statistische Verfahren. Daher gab Stefan hier ein wenig Nachhilfe in Mathe und erklärte sehr detaillierte Grundlagen: 1 und 0, Vektoren, Cosinus, Dimensionen und Co.

Für einen Test nahm Stefan eine 5 GB große Datei der deutschsprachigen Wikipedia und ließ diesen 5 Stunden durch Word2Vec rödeln. Das Ergebnis war nicht perferkt, aber immerhin besser als geraten.

Beispiel Word2Vec: 1. BVB, 2. erfolgreicher Fußballverein, 3. Dortmund. Wird Punkt 3 entfernt, spuckte sein Versuchsaufbau "FC Bayern" als passendes Pendant aus.

Als zweites Beispiel dienten 13 MB Twitter-Texte aus der SEO-Szene. Die Zusammenhänge der rund 150.000 Tweets waren innerhalb von nur einer Minute Berechnungszeit, bereits auf seinem Notebook zu sehen.

Wofür das Ganze? Zum Beispiel um Synonyme zu finden, Intelligence Competitive aufzubauen oder WDF*IDF auf eigene Faust zu erstellen.

Das Nachvollziehen von Rankings wird laut Stefan aufgrund dieser Technologien immer schwerer zu verstehen. Wer ML selber ausprobieren möchte, kommt um "Python" nicht herum.

Ein spannender Exkurs in die schöne Welt der Mathematik, die die Zukunft verändern kann.

Zehn SEO-HacksDominik Wojcik

"Technical SEO" trifft auf Dominik als Bezeichnung wohl am genauesten zu. Er zeigt zehn Tipps und neue Technologien, die SEOs auf den Schirm haben sollten:

  • Free Losless Image Format, kurz FLIF: Bilder-Optimierung für besseren Page Speed. Wird aber aktuell leider noch von keinem Webbrowser unterstützt. Status: die nächstn ein bis zwei Jahre beobachten.
  • JavaScript-Frameworks: AngularJS & ReactJS (oder Google vs. Facebook). Passend dazu: PreactJS als abgespeckte, aber deutlich performantere ReactJS-Version. Zu beachten: Server Side Rendering (SSR) und Client Side Rendering (CSR). Tipp: Rendertron als Renderer verwenden
  • Progressive Web Apps (PWA): reines Google-Universum, der Einsatz könnte in manchen Fällen mehr Sinn als klassische Apps machen
  • WebVR: mehr Engagement und völlig neue Möglichkeiten
  • Individuelle Logfile Analyse mit Big Query und Google Data Studio – alternativ: mit Logstash und Kibana
  • Nutze Octoparse: „easy web scraping“ für automatisiertes Crawlen von Websites
  • Verwende unbedingt Schema.org Question und Answer Markup
  • Tipp: Einsatz von commoncrawl.org statt eigene Tools zu entwickeln
  • Save the Web: Security Header richtig einsetzen, um die Webseite gegen Angriffe abzusichern

Data-Driven-SEOKai Spriestersbach

“Für jede Suchanfrage gelten unterschiedliche Rankingfaktoren!”

Kai führt kritisch durch die moderne SEO-Welt von 2017: Korrelationen, die für Ranking-Studien herangezogen werden, sind von der Aussagekraft mit Vorsicht zu genießen. Auf keinen Fall dürfen Zusammenhänge ohne Berücksichtigung der Ursächlichkeit hineininterpretiert werden. Ein Aufruf, nicht blind allen Daten und Statistiken zu vertrauen, auch wenn es noch so verlockend scheinen mag.

“Man muss nur alle ML-Algorithmen durchprobieren, irgendeiner liefert schon die Daten, die ich haben will.” Eine äußerst erfrischende und gelungene Mischung aus Tiefgang und Unterhaltung!

YAY! Hochlastoptimierung für DHDLDennis Oderwald

Die letzte Session des Tages war ein kurzer Abriss von Dennis Oderwald über die notwendigen Hochlastoptimierungen von Webseiten und Online-Shops, die zum Beispiel bei "Die Höhle der Löwen" auftreten.

Das schwächste Glied in der Kette verursacht eine Überlastung, bei der viele Besucher oder gar viel Geld verloren werden kann. Daher müssen alle beteiligten Systeme überprüft und optimiert werden, so dass auch 100.000 gleichzeitige Besucher bewältigt werden können.

Tipp: Ansprechende Fehlerseiten mit Mehrwert und gleichzeitig Remarketing-Pixeln für den Notfall erstellen. So kann zumindest Schadensbegrenzung betrieben werden.

Fazit

Die Qualität der Vorträge konnte wie schon letztes Jahr voll überzeugen. Vielen Dank an Oliver Hauser und sein Team für die tolle Veranstaltung!

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

Salzburg 16

SEOkomm 2016 Recap vom 18. November 2016 in Salzburg

Es ist die siebte SEOkomm, die am Freitag, 18.11.2016 in Salzburg, genauer in Bergheim bei Salzburg, in den Hallen von brandboxx stattfand. Deutschland und Österreich – gefühlt ein gemeinsames SEO-Land, denn die bekannten Gesichter von den anderen SEO-Konferenzen und sind auch hier vertreten.

Eingeläutet wurde die Veranstaltung nach einer kurzen Begrüßung durch den Organisator Oliver Hauser mit einem wunderschönen Abriss durch die gesamte SEO-Welt durch Marcus Tandler alias Mediadonis.

Make SEO great again

Google hat enorm viele Suchanfragen – nach Schätzungen kommen 70% von Bots und nur 30% von echten Nutzern – aber Google will mehr Informationsquellen: der DNS-Service 8.8.8.8 beispielsweise wickelt bereits 7% aller Anfragen ab. Chrome hat als Browser inzwischen weltweit den größten Verbreitungsgrad und hat Firefox und den Internet Explorer weit hinter sich gelassen. Das mobile Betriebssystem Android ist für den Suchmaschinengiganten ein wahrer Daten-Segen.

Marcus fand eine schöne Mischung aus Übersicht, Aussicht und Einsicht: letzteres traf die (nicht vorhandene?) SEO-Abteilung von Continental, den kleinen unbedeutenden Reifenhersteller. Keine oder schlecht gepflegte Meta-Descriptions und der fehlende SEO-Fokus auf ihr Kerngeschäft (die Seite für Fahrradreifen rankt vor der für Autoreifen) brachte die SEOkomm-Besucher zum Lachen und Weinen gleichzeitig.

Relevanz misst Google mit vielen Faktoren, einer davon könnte die Telefonnummer sein: nach Marcus Detektivarbeit korreliert die Ortsvorwahl auf Webseiten mit standortbezogenen Suchergebnissen. Die Erklärung ist einfach: Ortsvorwahl 089, Suchanfrage für München – thematisch fügt sich das ja schön zusammen. Relevanz und holistische Inhalte sind hier die Schlüsselwörter.

„Du lädst Google zu dir nach Hause ein“

Websites sauber aufräumen: Dominik Woicik motivierte Entwickler, SEOs, Website-Betreiber und Content-Manager zum Hausputz: die drei Bereiche interne Verlinkung, Crawling und Indexmanagement bilden die Basis für das Unterfangen. Bei den internen Links natürlich keine Weiterleitungen verwenden, auf keine Fehlerseiten linken und wichtige Seiten öfter verlinken als unwichtige. Klingt einfach, ist aber ein ordentliches Stück Arbeit.

Beim Crawling gilt vor allem eines: Effizienz. Das Crawl-Budget sinnvoll nutzen, den Google-Bot nicht ärgern oder irreführen und selbst immer wieder testen. Auch hier gilt: klingt einfach, abhängig von System und Größe kann das aber richtig ausarten.

Bereich drei, das Indexmanagement, widmet sich den Inhalten auf der Seite. Dominik vergleicht hier sehr treffend die Webseite mit einem Kühlschrank: viele Inhalte darin können mit der Zeit anfangen zu schimmeln und müssen erneuert werden. Das bedeutet, entweder regelmäßig zu überarbeiten oder schlicht und ergreifend einfach entfernen. Saubermachen, auch wenn es im ersten Moment schmerzt.

Google Search Console Advanced

Sebastian Erlhofer referierte 40 Minuten über die Google Search Console, welche immer noch unter Webmaster Tools in der URL geführt wird. Wichtige Klarstellung: immer die Zahlen hinterfragen, die angezeigt werden. GSC liefert bereinigte Werte, weshalb immer wieder Abweichungen vorzufinden sind. Auch sollte die Search Console nicht als Link-Optimierungs-Tool genutzt werden – da gibt es deutlich bessere Alternativen auf dem Markt.

Für SEOs, die eine Disavow-Liste pflegen müssen, ist ein einfaches Hochladen, Einreichen und Warten der falsche Weg, um schnell sichtbare Ergebnisse zu erzielen. Grund: Google schaut bei einer Vielzahl der gelisteten Seite sehr wahrscheinlich nicht so schnell vorbei. Sebastians Behelfslösung: eine nagelneue Website mit neuer Domain erstellen, die Websites aus der Disavow-Liste dort verlinken und die neue Website dann bei Google zum indexieren einreichen. So crawlt sich der Bot durch das neue HTML und folgt den Links zu den zu entwertenden Domains und die Aktualisierung erfolgt.

Weitere Themen des Vortrags waren Aufräumen (Statuscode 410 “gone” statt 404 nutzen und in der Search Console die Funktion „Als korrigiert markieren” anhaken), Content-Pflege (attraktive Schwellenkeywords mittels Suchanfragen finden) und die API nutzen.

Ein technischer Vortrag mit vielen guten Tipps, wie sich mehr aus der Google Search Console rausholen lässt. Und nicht vergessen: immer die Daten wegspeichern!

Der Googlebot soll wie ein normaler Browser funktionieren

– zumindest zu großen Teilen. Diese Aussage stammt vom Google-Mitarbeiter und Webmaster-Guru John Müller. Er stand im über halbstündigen Panel Fragen aus der Runde wieder Frage und Antwort. Erfahrungen damit hat er: allein in den bisher stattgefundenen Webmaster-Hangouts wurden über 2.440 Fragen von ihm mit einer stoischen Gelassenheit beantwortet, von denen manche die Zuschauer nur mit einem „das hast du grad nicht wirklich gefragt” quittiert worden wäre.

Mobile SEO

Mobile First ist immer noch nicht angekommen, aber die Anteil mobiler Nutzung wächst stetig. Google praktiziert das Mobile First Credo bereits seit über sechs Jahren, bei Website-Schmieden ist das aber noch nicht immer der Fall.

Stefan Fischerländer verdeutlicht in seinem Vortrag nochmal die Wichtigkeit, sich um die mobile Website zu kümmern. Er rät sogar zu einem mobile-only Tag: Einen Tag in der Woche nur mit dem Smartphone arbeiten und die eigenen Webseiten anschauen – immerhin sehen geamt-durchschnittlich (abhängig von Branche und Bereich) über die Hälfte der Nutzer die Seite auf diese Weise. Dieser Schritt wirkt erstmal ziemlich drastisch, ist aber genauer betrachtet nur konsequent und richtig.

Networking Party

Kurz nach 18 Uhr neigte sich der SEOkomm dem Ende – doch gab es noch ein letztes Highlight: die Party am Abend im Kavalierhaus. Klingt für viele im ersten Moment unanständig, war es aber nicht. Bei feinstem Essen, gutem Bier mit erhellenden Motiven und Cocktails wie Longdrinks konnte ein jeder entspannt den Abend Revue passieren lassen. Damit nicht genug, gab es via Jochen Schweizer draußen auch noch ein „Wir-schmeißen-mit-dem-Bagger-Holzklötzchen-um” Spiel auf Zeit. Die schnellsten drei gewannen dabei Gutscheine von Jochen Schweizer. Bis zuletzt war mir mit 51 Sekunden noch ein Sieg auf dem Treppchen sicher – bis der geschätzte Kollege Hans Jung um kurz vor halb elf an den Start ging und mich mit 50 Sekunden davon verbannte. Viel Spaß beim Surfen an der Stelle!

Fazit

Die SEOkomm in Salzburg war 2016 eine top Veranstaltung: sehr gute Speaker, guter Zeitrahmen und wieder um einige Anregungen reicher geht es zurück in die Heimat. Man merkt der Konferenz die sieben Jahre an – professionell vom Einlass über Mittagessen bis zum Schluss. Wir freuen uns auf die SEOkomm 2017!

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.