KI-Signatur aus Texten entfernen: Parallele Kritik statt einzelner Rewriter
Ein einzelner Rewriter bläht den Text auf und lässt KI-Marker zurück. Drei parallele Kritiker + ein Rewriter mit harten Regeln machen den Text menschlich.
Ich habe eine KI gebeten, einen generierten Text „menschlicher" umzuschreiben. Das Ergebnis war 50 % länger und enthielt immer noch die gleichen KI-Marker.
Das Problem ist systemisch: Ein einzelner Rewriter kann seine eigenen Muster nicht erkennen.
Warum ein einzelner Rewriter nicht funktioniert
Wenn du eine KI bittest, Text „zu humanisieren", passiert Folgendes:
- Der Text wird länger, nicht besser
- Generische Phrasen werden durch andere generische Phrasen ersetzt
- Der gleichmäßige Rhythmus bleibt (alle Sätze ähnlich lang, alle Absätze 3–4 Sätze)
KI-Detektoren messen zwei Dinge: Perplexität (wie vorhersagbar die Wortwahl ist) und Burstiness (wie stark die Satzlänge variiert). Ein einzelner Rewrite-Durchlauf ändert keines von beidem — er paraphrasiert nur.
Der Multi-Agenten-Ansatz
Die Lösung: Analyse und Korrektur trennen. Drei unabhängige Kritiker finden verschiedene Probleme, ein Rewriter behebt sie anhand der konkreten Liste.
Text → 3 parallele Kritiker → Aggregation → Rewriter mit harten Regeln
Kritiker 1: KI-Marker-Detektor
Sucht nach typischen KI-Phrasen:
- „Es ist wichtig zu verstehen"
- „In der heutigen Zeit"
- „Dies ist nicht X — dies ist Y"
- Abstrakte Behauptungen ohne Beispiele oder Daten
- Füllwörter wie „grundsätzlich", „im Wesentlichen", „zweifellos"
Kritiker 2: Rhythmus-Analysator
Prüft die Textstruktur:
- Sind alle Sätze ähnlich lang?
- Wiederholen sich Satzanfänge?
- Haben alle Absätze die gleiche Länge?
- Sind Listen künstlich gleichmäßig?
Kritiker 3: Persönlicher-Touch-Berater
Fragt nach Authentizität:
- Fehlt eine persönliche Perspektive oder Meinung?
- Wo würde ein konkretes Beispiel, ein Name oder eine Zahl den Text stärker machen?
- Klingt es wie Wikipedia oder wie ein Blog-Post?
- Wird der Leser direkt angesprochen?
Die drei Kritiker laufen parallel — das dauert genauso lang wie ein einzelner Call.
Harte Regeln für den Rewriter
Nach der Aggregation der Kritik bekommt der Rewriter konkrete Einschränkungen:
- Wortanzahl ≤ Original. Ohne diese Regel fügt die KI „wertvollen Kontext" hinzu. Kürzen statt aufblähen.
- Jede markierte KI-Phrase wird entfernt. Nicht umformuliert — entfernt.
- Satzlänge variieren. Kurze Sätze neben längeren. Kein gleichmäßiger Rhythmus.
- Markdown beibehalten. Überschriften, Fettdruck, Listen, Code-Blöcke bleiben exakt wie sie sind.
Der entscheidende Punkt: Der Rewriter bekommt keine vage Anweisung wie „mach es menschlicher", sondern eine konkrete Liste von Problemen mit Zitaten und Verbesserungsvorschlägen.
Vorher und Nachher
| Metrik | Ein Rewriter | 3 Kritiker + Rewriter |
|---|---|---|
| Länge | +50 % (aufgebläht) | −10 % (gekürzt) |
| „Das ist nicht X — das ist Y" | Verblieben | Entfernt |
| Persönliche Perspektive | Nein | Ja |
| Konkrete Namen/Daten | Nein | Ja |
| Satzrhythmus | Monoton | Variiert |
So habe ich es umgesetzt
Ich habe diesen Ansatz direkt in meine Content-Pipeline eingebaut. In meiner Assembly-Workflow läuft der Deaify-Step automatisch nach dem Proofread und vor dem SEO-Audit:
Assemble → Proofread → Deaify → SEO-Audit → Publish
Die drei Kritiker laufen als parallele Gemini-Flash-Calls. Die gesamte Kritik kommt in ~10 Sekunden zurück. Der Rewriter bekommt die aggregierte Kritik + harte Regeln und schreibt den Text in einem Durchgang um.
Als Sicherheitsnetz prüfe ich danach:
- Hat der umgeschriebene Text noch gültiges Frontmatter?
- Ist er maximal 110 % der Originallänge?
- Wenn einer der Checks fehlschlägt, wird der Originaltext beibehalten.
Wenn alle drei Kritiker keine Probleme finden, wird der Text gar nicht erst umgeschrieben. Kein unnötiger Rewrite-Durchlauf.
Das Muster übertragen
Der Ansatz funktioniert überall, wo Kritik vor einer Korrektur steht:
- Code-Review: Drei Agenten prüfen Sicherheit, Performance und Lesbarkeit getrennt
- Dokumentations-Check: Einer prüft Vollständigkeit, einer Verständlichkeit, einer technische Korrektheit
- Content-Audit: KI-Marker, SEO-Qualität und Tonalität parallel analysieren
Das Prinzip: Teile die Analyse in unabhängige Kritiker auf, aggregiere die Ergebnisse und wende sie mit harten Einschränkungen an. Nie den Analysten gleichzeitig zum Korrektor machen.