VIBE CODING
PLAYBOOK4 min read

KI-Signatur aus Texten entfernen: Parallele Kritik statt einzelner Rewriter

Ein einzelner Rewriter bläht den Text auf und lässt KI-Marker zurück. Drei parallele Kritiker + ein Rewriter mit harten Regeln machen den Text menschlich.

ki-contenttext-optimierungmulti-agentpipeline

Ich habe eine KI gebeten, einen generierten Text „menschlicher" umzuschreiben. Das Ergebnis war 50 % länger und enthielt immer noch die gleichen KI-Marker.

Das Problem ist systemisch: Ein einzelner Rewriter kann seine eigenen Muster nicht erkennen.

Warum ein einzelner Rewriter nicht funktioniert

Wenn du eine KI bittest, Text „zu humanisieren", passiert Folgendes:

  • Der Text wird länger, nicht besser
  • Generische Phrasen werden durch andere generische Phrasen ersetzt
  • Der gleichmäßige Rhythmus bleibt (alle Sätze ähnlich lang, alle Absätze 3–4 Sätze)

KI-Detektoren messen zwei Dinge: Perplexität (wie vorhersagbar die Wortwahl ist) und Burstiness (wie stark die Satzlänge variiert). Ein einzelner Rewrite-Durchlauf ändert keines von beidem — er paraphrasiert nur.

Der Multi-Agenten-Ansatz

Die Lösung: Analyse und Korrektur trennen. Drei unabhängige Kritiker finden verschiedene Probleme, ein Rewriter behebt sie anhand der konkreten Liste.

Text → 3 parallele Kritiker → Aggregation → Rewriter mit harten Regeln

Kritiker 1: KI-Marker-Detektor

Sucht nach typischen KI-Phrasen:

  • „Es ist wichtig zu verstehen"
  • „In der heutigen Zeit"
  • „Dies ist nicht X — dies ist Y"
  • Abstrakte Behauptungen ohne Beispiele oder Daten
  • Füllwörter wie „grundsätzlich", „im Wesentlichen", „zweifellos"

Kritiker 2: Rhythmus-Analysator

Prüft die Textstruktur:

  • Sind alle Sätze ähnlich lang?
  • Wiederholen sich Satzanfänge?
  • Haben alle Absätze die gleiche Länge?
  • Sind Listen künstlich gleichmäßig?

Kritiker 3: Persönlicher-Touch-Berater

Fragt nach Authentizität:

  • Fehlt eine persönliche Perspektive oder Meinung?
  • Wo würde ein konkretes Beispiel, ein Name oder eine Zahl den Text stärker machen?
  • Klingt es wie Wikipedia oder wie ein Blog-Post?
  • Wird der Leser direkt angesprochen?

Die drei Kritiker laufen parallel — das dauert genauso lang wie ein einzelner Call.

Harte Regeln für den Rewriter

Nach der Aggregation der Kritik bekommt der Rewriter konkrete Einschränkungen:

  1. Wortanzahl ≤ Original. Ohne diese Regel fügt die KI „wertvollen Kontext" hinzu. Kürzen statt aufblähen.
  2. Jede markierte KI-Phrase wird entfernt. Nicht umformuliert — entfernt.
  3. Satzlänge variieren. Kurze Sätze neben längeren. Kein gleichmäßiger Rhythmus.
  4. Markdown beibehalten. Überschriften, Fettdruck, Listen, Code-Blöcke bleiben exakt wie sie sind.

Der entscheidende Punkt: Der Rewriter bekommt keine vage Anweisung wie „mach es menschlicher", sondern eine konkrete Liste von Problemen mit Zitaten und Verbesserungsvorschlägen.

Vorher und Nachher

MetrikEin Rewriter3 Kritiker + Rewriter
Länge+50 % (aufgebläht)−10 % (gekürzt)
„Das ist nicht X — das ist Y"VerbliebenEntfernt
Persönliche PerspektiveNeinJa
Konkrete Namen/DatenNeinJa
SatzrhythmusMonotonVariiert

So habe ich es umgesetzt

Ich habe diesen Ansatz direkt in meine Content-Pipeline eingebaut. In meiner Assembly-Workflow läuft der Deaify-Step automatisch nach dem Proofread und vor dem SEO-Audit:

Assemble → Proofread → Deaify → SEO-Audit → Publish

Die drei Kritiker laufen als parallele Gemini-Flash-Calls. Die gesamte Kritik kommt in ~10 Sekunden zurück. Der Rewriter bekommt die aggregierte Kritik + harte Regeln und schreibt den Text in einem Durchgang um.

Als Sicherheitsnetz prüfe ich danach:

  • Hat der umgeschriebene Text noch gültiges Frontmatter?
  • Ist er maximal 110 % der Originallänge?
  • Wenn einer der Checks fehlschlägt, wird der Originaltext beibehalten.

Wenn alle drei Kritiker keine Probleme finden, wird der Text gar nicht erst umgeschrieben. Kein unnötiger Rewrite-Durchlauf.

Das Muster übertragen

Der Ansatz funktioniert überall, wo Kritik vor einer Korrektur steht:

  • Code-Review: Drei Agenten prüfen Sicherheit, Performance und Lesbarkeit getrennt
  • Dokumentations-Check: Einer prüft Vollständigkeit, einer Verständlichkeit, einer technische Korrektheit
  • Content-Audit: KI-Marker, SEO-Qualität und Tonalität parallel analysieren

Das Prinzip: Teile die Analyse in unabhängige Kritiker auf, aggregiere die Ergebnisse und wende sie mit harten Einschränkungen an. Nie den Analysten gleichzeitig zum Korrektor machen.