Die Wikipedia-Seite „Wikipedia:Signs of AI writing“ (Kurz: WP:AISIGNS) ist seit Mitte 2025 eine der am intensivsten diskutierten und am häufigsten überarbeiteten Projektseiten der deutschen und englischen Wikipedia. Sie dient nicht als Regel- oder Richtlinienseite, sondern als praktisches Nachschlagewerk und „Feldführer“ für erfahrene Editoren, die vermuten, dass ein Artikel, eine Bearbeitung oder eine ganze Serie von Bearbeitungen von einem Large Language Model (LLM) wie ChatGPT, Claude, Grok, Gemini oder Llama stammt.
Die Seite entstand ursprünglich im März 2023 als kurze Sammlung auffälliger Muster, wurde aber 2025/2026 zu einer umfangreichen, gut strukturierten Dokumentation mit über 40 typischen Merkmalen, realen Beispielen aus der Wikipedia und detaillierten Gegenüberstellungen. Sie ist bewusst deskriptiv, nicht präskriptiv: Sie stellt fest, was man beobachtet, ohne daraus sofort Lösch- oder Sperrgründe abzuleiten.
Kerninhalt der Seite (Januar 2026)
Die Seite gliedert die typischen „AI-Signaturen“ in mehrere Kategorien:
- Sprache und Grammatik
- Übermäßiger Gebrauch von Füllfloskeln: „Es ist wichtig zu betonen“, „Es sei darauf hingewiesen“, „Von besonderer Bedeutung ist“, „Zusammenfassend lässt sich sagen“
- Auffällige Wiederholung von Adverbien und Modalpartikeln: „insbesondere“, „maßgeblich“, „maßgeblich beeinflusst“, „deutlich sichtbar“, „deutlich erkennbar“
- Künstlich neutrale oder überhöflich wirkende Formulierungen: „Es ist erwähnenswert, dass…“, „Es darf nicht unerwähnt bleiben…“
- Häufige Verwendung von Bindestrichen statt Gedankenstrichen oder Doppelpunkten in Aufzählungen
- Übertriebene Verwendung von Bindewörtern: „darüber hinaus“, „folglich“, „infolgedessen“, „demzufolge“, „in diesem Zusammenhang“
- Stil und Struktur
- Starke Neigung zu symmetrischen Satzpaaren und Parallelismen: „Einerseits … andererseits“, „Zum einen … zum anderen“, „Sowohl … als auch“
- Übermäßige Unterteilung in Absätze mit fast identischer Länge (oft 3–5 Sätze)
- Häufige Verwendung von „sogenannt“, „sogenannte“, „sogenannter“ auch bei etablierten Begriffen
- Künstliche „Brücken“ zwischen Absätzen, die keinen echten inhaltlichen Übergang schaffen
- Auffällige Aufzählungen mit drei bis fünf Punkten, die fast immer mit einem identischen Satzmuster beginnen
- Kommunikation mit dem Leser
- Direkte Ansprache: „Sie werden feststellen, dass…“, „Wie Sie sehen können…“, „Man könnte meinen…“
- Übermäßige Meta-Kommentare: „Es ist interessant zu beobachten“, „Bemerkenswert ist in diesem Zusammenhang“, „Ein genauerer Blick offenbart“
- Übertriebene Betonung von Objektivität: „Objektiv betrachtet“, „Unvoreingenommen betrachtet“, „Wissenschaftlich gesehen“
- Zitate und Belege
- Häufige Verwendung von „laut“, „nach“, „gemäß“, „zufolge“ statt präziser Quellenangaben
- Erfundene oder halluzinierte Quellenangaben („Laut einer Studie von 2023…“ ohne konkrete Referenz)
- Übermäßige Verwendung von Sekundärquellen oder populärwissenschaftlichen Artikeln statt Primärliteratur
- Zitierstil-Fehler: Mischung von DIN 1505, APA, Harvard und Chicago in einem Artikel
- Sonstige Muster
- Übermäßige Verwendung von Fettschrift und Kursivschrift (oft ganze Phrasen)
- Falsche oder überflüssige Interpunktion: Doppelte Kommas, Gedankenstriche statt Bindestriche
- Typische LLM-Fehler: „sich in der Folge ergeben“, „eine Rolle spielen“, „maßgeblich beeinflussen“, „von entscheidender Bedeutung sein“
- Künstlich ausgewogene Formulierungen: „Einerseits … andererseits“, „Pro und Contra“, „Vorteile und Nachteile“
Historische Entwicklung der Seite
Die Seite entstand im März 2023 als kurze Liste von etwa 15 Merkmalen, die vor allem auf ChatGPT 3.5 zurückgingen. Mit der Veröffentlichung von GPT-4 (März 2023), Claude 2 (Juli 2023), Gemini 1.0 (Dezember 2023), Claude 3 (März 2024), Grok-1.5 (April 2024), GPT-4o (Mai 2024) und Llama 3 (Juli 2024) musste die Liste ständig erweitert werden. Seit 2025 kommen vermehrt Merkmale hinzu, die spezifisch für die neuesten Modelle sind:
- Übermäßige Verwendung von „maßgeblich“, „maßgeblich beeinflusst“, „maßgeblich zur Entwicklung beigetragen“
- Häufige Konstruktionen wie „Dies ist ein wichtiger Aspekt, der …“
- Auffällige Wiederholung von „es ist wichtig zu betonen“
- Künstliche „Brücken“ wie „Zusammenfassend lässt sich festhalten“
Was die Seite explizit nicht ist
Die Seite betont mehrfach, dass sie keine Richtlinie darstellt und dass keines der genannten Merkmale allein ausreicht, um eine Bearbeitung als KI-generiert einzustufen. Sie ist rein deskriptiv und dient der Orientierung erfahrener Editoren. Die eigentlichen Regeln finden sich in:
- WP:LLM (Large Language Models)
- WP:AI (Artificial Intelligence)
- WP:G5 (schnelle Löschung von LLM-generierten Artikeln ohne menschliche Überarbeitung)
- WP:V (Verifizierbarkeit)
- WP:NOR (Keine eigene Forschung)
Fazit: Ein lebendiges Dokument der Wikipedia-Community
„Wikipedia:Signs of AI writing“ ist mittlerweile eines der am intensivsten gepflegten Projektseiten der englischen und deutschen Wikipedia. Es zeigt, wie schnell sich die Community an neue Herausforderungen anpasst und wie detailliert sie Muster analysiert. Die Seite ist kein „AI-Detection-Tool“, sondern ein kollektives Erfahrungswissen, das ständig aktualisiert wird.
Für Leser und Editoren ist sie eine wertvolle Ressource – und ein Beleg dafür, dass Wikipedia trotz aller KI-Fortschritte weiterhin auf menschliche Überprüfung, Quellenkritik und Gemeinschaft setzt. Die Seite wird voraussichtlich auch 2026 weiter wachsen, solange neue Modelle neue Muster erzeugen.
