KI-Übersetzungen fügen Wikipedia falsche Quellen hinzu: Editoren schlagen Alarm

KI-Übersetzungen fügen Wikipedia falsche Quellen hinzu: Editoren schlagen Alarm

Die größte Enzyklopädie der Welt hat ein KI-Problem. Wikipedia-Editoren haben entdeckt, dass KI-gestützte Übersetzungen "Halluzinationen" in Artikel einschleusen – erfundene Quellen, falsche Seitenzahlen und Informationen, die in den zitierten Büchern gar nicht existieren.

Im Zentrum steht die Open Knowledge Association (OKA), eine Non-Profit-Organisation, die Wikipedia-Artikel mithilfe von KI in andere Sprachen übersetzt. Laut ihrer Website nutzen sie "Large Language Models, um den Großteil der Arbeit zu automatisieren". Das Problem: Diese LLMs erfinden Dinge.

Ein konkretes Beispiel: Ein Artikel über die französische Adelsfamilie La Bourdonnaye zitiert ein Buch mit spezifischer Seitenzahl. Als Editor Ilyas Lebleu die Quelle überprüfte, stellte er fest: "Diese Seite erwähnt die Familie überhaupt nicht."

Die Stichproben wurden schlimmer. Manche Artikel hatten vertauschte Quellen. Andere enthielten Absätze, die mit komplett unrelated Material belegt waren. Der Artikel zur Französischen Senatswahl 1879? Enthielt Paragraphen mit Quellen, die nichts mit dem Inhalt zu tun hatten.

OKA bezahlt Übersetzer im Global South etwa 397 Dollar pro Monat für bis zu 40 Stunden Arbeit pro Woche. Die Anweisungen? Artikel in ChatGPT oder Gemini kopieren und die Ausgabe überprüfen. Ursprünglich wurde sogar Grok empfohlen – Elon Musks notorisch fehlerhafte KI.

Die Wikipedia-Community hat reagiert. Neue Regeln schreiben vor: OKA-Übersetzer, die innerhalb von sechs Monaten vier Warnungen wegen fehlerhafter Inhalte erhalten, werden ohne weitere Warnung gesperrt. Inhalte von gesperrten Übersetzern können pauschal gelöscht werden.

OKA-Gründer Jonathan Zimmermann verteidigt sich: Man führe jetzt einen zweiten KI-Überprüfungsschritt ein. Die Ironie? KI soll die Fehler von KI finden. Studien zeigen, dass dieser Ansatz historisch eine Fehlerquote von mindestens 10% hat.

Das größere Problem bleibt: Wenn selbst "gut gemeinte" KI-Nutzung Wikipedia kontaminiert, wie soll die Plattform die Flut von absichtlichem KI-Müll bewältigen?