Was im Maerz 2026 tatsaechlich passiert ist#
In der ersten Maerzwoche rollte Google ein Core-Algorithmus-Update aus. Der Teil ist Routine. Was nicht Routine war, war das spezifische Muster, wer Traffic verlor.
KI-Tool-Directories, Vergleichsseiten und "Best of"-Roundup-Seiten kassierten die groessten Treffer. Nicht alle davon, aber ein sehr spezifischer Ausschnitt: die, die auf templatisiertem Content basieren, schnell produziert, ohne klare Autor-Zuordnung, mit Affiliate-Links in jedem Absatz, und mit Kategorie-Seiten, die offensichtlich aus einem Daten-Feed generiert wurden.
Ich sage das nicht aus Schadenfreude. aitoolradar.io, die Seite, auf der Sie das lesen, ist selbst ein KI-Tool-Directory. Wir haben auch getroffen, wenn auch kleiner als die meisten. Der Unterschied war teils Glueck und teils die bewussten Entscheidungen, die wir frueh trafen, und es ist wert zu erklaeren, was was war.
Warum dieses Update speziell Directories getroffen hat#
Googles eigene Post-Mortem-Analyse zum Update sprach von "Content mit geringem Aufwand, im Skale produziert" und "Seiten, die primaer fuer Monetarisierung statt Nutzer-Mehrwert existieren". Diese Sprache ist absichtlich vage, aber das Muster, wer getroffen wurde, offenbart, was sie tatsaechlich meinten.
Die Seiten, die am meisten Traffic verloren, teilten drei oder vier dieser Eigenschaften:
- Content von Modellen geschrieben mit minimaler menschlicher Bearbeitung, erkennbar an der generischen Formulierung
- Kein sichtbarer Autor, oder Fake-Autor-Profile mit Stockfoto-Portraits
- Jede Kategorie-Seite templatisiert aus derselben Datenbank ohne redaktionelle Schicht
- Affiliate-Links in jedem Absatz, oft mit genau derselben Call-to-Action-Box wiederholt
- Duenner "Vergleichs"-Content, der dieselben Fakten ueber Dutzende URLs umordnete
Das letzte Muster ist das aussagekraeftigste. Wenn Ihre Seite 500 Seiten wie "X vs Y", "X-Alternativen", "beste X fuer Y" hat, und die alle aus denselben Daten templatisiert sind, waren Sie in der Zielzone.
KI-Tool-Directories sind zufaellig ein nahezu perfektes Match fuer dieses Muster. Der Markt wurde darauf gebaut. Tool auswaehlen, Marketing-Seite scrapen, Review produzieren, fuenf Alternative-Vergleiche produzieren, Affiliate-Links bei jeder Erwaehnung anbringen, bei 200 Tools wiederholen. Das ist das Default-Playbook.
Warum aitoolradar weniger Schaden nahm#
Ich will nicht so tun, als sei diese Seite etwas Besonderes. Ist sie nicht. Wir fahren dasselbe Basis-Directory-Modell. Aber ein paar Entscheidungen am Anfang zaehlten mehr, als sie damals aussahen.
Erstens: Jeder Guide auf der Seite hat einen sichtbaren Autor (Roland Hentschel, in diesem Fall ich), ein Foto, eine Bio und einen Link zu meinen tatsaechlichen Credentials. Nicht weil wir E-E-A-T gamen wollten, sondern weil ich sie tatsaechlich schreibe. Als die Seite launchte, war ich der einzige Schreiber. Das ist konsistent geblieben, auch als der Katalog wuchs.
Zweitens: Jeder Guide listet seine "verifiedSources" im Frontmatter, und der Text enthaelt ein "Last verified"-Datum. Das ist fuer den Leser und fuer Google sichtbar. Es signalisiert, dass ein Mensch an einem spezifischen Datum hingegangen ist und die Pricing-Seite geprueft hat, statt sie aus einem gescrapten Daten-Feed zu ziehen.
Drittens: Wir haben unsere Affiliate-Beziehungen offen auf jeder Seite genannt. Affiliate-Disclosure, Impressum, Datenschutz. Langweilige Corporate-Hygiene, aber es ist genau das, wonach Googles Quality-Rater suchen, wenn sie pruefen, ob eine Seite transparent operiert.
Viertens, und das ist das grosse: Wir begrenzten Affiliate-Links auf zwei oder drei pro Seite. Nicht einen pro Absatz, keinen Banner in jedem Abschnitt. Der wirtschaftliche Anreiz ist, eine Seite mit Affiliate-CTAs zu laden, weil das den Umsatz pro Besucher maximiert. Wir haben uns entschieden, das nicht zu tun, weil es den Content schlechter macht, und Google stimmt jetzt offensichtlich zu.
Nichts davon macht uns immun. Wir haben trotzdem Treffer auf einigen Kategorie-Seiten kassiert, die zu duenn waren (700-800 Woerter fuer eine ganze Kategorie), was eines der Dinge ist, die Phase 2 der Site-Roadmap adressiert. Aber der Treffer waren vielleicht 15-20 Prozent Directory-Traffic, nicht die 60-80 Prozent, die ich bei anderen Seiten der Kategorie sah.
Die haertere Lektion#
Das Maerz-2026-Update ist kein Einzelereignis. Es ist die Fortsetzung eines Drei-Jahres-Trends, den jeder im SEO beobachtet hat, und die meisten ignoriert haben.
Der Trend lautet: Google straft systematisch Content ab, dessen Existenz primaer wirtschaftlich ist, nicht informativ. Das bedeutet:
- Affiliate-Seiten, die existieren, um Provision zu fangen, nicht um zu informieren
- Vergleichs-Seiten aus Templates generiert, nicht aus Analyse
- Kategorie-Seiten mit duennen Zusammenfassungen gestopft, nicht mit eigenstaendigem Denken
- KI-generierte Artikel, die wiederkaeuen, was andere Artikel sagten
Der wirtschaftliche Anreiz in Content war frueher "schreib das Ding, das rankt", was oft dasselbe war wie "schreib das Ding, das ein Modell produzieren wuerde". Das hoerte etwa Ende 2025 auf wahr zu sein. Jetzt ist das Ding, das rankt, das Ding, das ein Modell nicht produzieren wuerde, zumindest nicht ohne viel menschliche Steuerung.
Was das fuer Content-Strategie bedeutet#
Wenn Sie Content jeglicher Art publizieren, sind die praktischen Implikationen jetzt klarer als noch vor einem Jahr.
Expertise ist ein Graben, keine Checkbox. Google kann (unvollkommen, aber gut genug) erkennen, wann ein Autor ein Thema tatsaechlich kennt, und wann er zusammenfasst, was andere schrieben. In Expert-Contributor zu investieren oder selbst Expertise aufzubauen ist die haltbarste SEO-Strategie 2026.
Originaldaten schlagen aggregierte Daten. Wenn Ihre Seite Zahlen enthaelt, die nur Sie haetten produzieren koennen (ein Test, den Sie liefen, eine Umfrage, die Sie fuehrten, Rechnungen, die Sie analysierten), haben Sie etwas, das niemand anders hat. Das gilt fuer SEO und fuer menschliche Leser.
Meinung schlaegt Zusammenfassung. Seiten mit klarer Position und Begruendung, auch einer kontroversen, ranken besser als Seiten, die Optionen auflisten ohne sie zu bewerten. Vorsichtig und umfassend zu sein ist nicht mehr neutral; es wird bestraft.
Konsistenz schlaegt Volumen. Ein neuer tief recherchierter Post pro Woche schlaegt jetzt fuenf flache Posts pro Woche. Das alte Playbook, die SERPs mit Content zu fluten, ist tot.
Was ich aendern wuerde, wenn ich neu anfinge#
Ein paar Dinge, die ich anders machen wuerde, wenn ich aitoolradar.io heute statt vor einem Jahr launche.
-
Start mit 20 Tool-Guides, nicht 200. Fokus auf Tiefe. Guides schreiben, die nur aus ausgedehnter Hands-on-Nutzung kommen koennen, nicht aus dem Scrapen von Marketing-Seiten.
-
Affiliate-Links auf einen pro Seite begrenzen, hoechstens. Umsatz pro Seite sinkt, aber Retention und Ranking verbessern sich. Die Langzeit-Mathematik ist besser.
-
Weniger Vergleichs-Seiten publizieren, mit unverwechselbarerer Analyse. Zehn "X vs Y"-Artikel mit echten Positionen schlagen 100 templatisierte.
-
Mehr Original-Forschung betreiben. Benchmark-Tests, Preis-Analysen, Umfrage-Ergebnisse. Das ist der Content, den Wettbewerber nicht kopieren koennen.
-
In die About-Seite, Autor-Seiten und Methodik-Seite vom ersten Tag an investieren. Das ist kein Marketing-Fluff; das ist die Signal-Schicht, die Google (und Lesern) sagt, ob Sie in gutem Glauben operieren.
Die optimistische Lesart#
Directory- und Vergleichsseiten verschwinden nicht. Sie bedienen ein echtes Nutzer-Beduerfnis: durch den Marketing-Laerm zu schneiden, um zu finden, was tatsaechlich funktioniert. Was verschwindet, ist die faule Version dieses Modells.
Die Seiten, die diesen Uebergang ueberleben, werden die sein, die in die teuren Teile investierten: echte Expertise, verifizierte Quellen, klare Autoren-Identitaet, zurueckhaltende Monetarisierung, Original-Forschung. Die Seiten, die nicht ueberleben, werden die sein, die auf billigen Content im Skale optimierten.
Das ist ein schwierigeres Geschaeft zu fuehren. Es ist auch ein viel besseres zu lesen. Als jemand, dessen Job von Google-Traffic abhaengt und der auch Content lesen will, der lesenswert ist, bin ich mit diesem Trade einverstanden.
Wenn Sie mehr darueber wollen, wie man Content baut, der standhaelt: Das Muster, dem wir auf dieser Seite folgen, ist in unseren CONTENT-GUIDELINES (oeffentlich auf GitHub) dokumentiert und in den meisten unserer Guides referenziert. Fuer einen breiteren Ueberblick ueber KI-Content-Tools speziell siehe unsere Writing-Tools-Kategorie.
