AI-Übersetzungen fügen Wikipedia erfundene Quellen hinzu – Editors schlagen Alarm
Eine Non-Profit-Organisation namens Open Knowledge Association hat AI genutzt, um Wikipedia-Artikel zu übersetzen – mit desaströsen Ergebnissen. Die KI erfand einfach Quellen, die nie existierten.
Laut einem Bericht von 404 Media umfassen die "Halluzinationen" falsche, erfundene, ersetzte und völlig unzusammenhängende Quellenangaben. Das Herzstück von Wikipedias Glaubwürdigkeit – die Überprüfbarkeit – wurde damit untergraben.
Wikipedia-Editoren reagieren jetzt: OKA-Übersetzer werden mit Einschränkungen belegt. Wer zu viele fehlerhafte Beiträge produziert, wird gesperrt.
Das Problem illustriert eine fundamentale Schwäche aktueller KI-Modelle: Sie können überzeugend klingende Informationen produzieren, die komplett erfunden sind. Bei einer Enzyklopädie ist das besonders gefährlich.
OKA hatte gute Absichten – Wikipedia in mehr Sprachen verfügbar zu machen. Aber der Ansatz, massenhaft KI-Übersetzungen ohne ausreichende menschliche Kontrolle zu posten, ist gescheitert.
Für Wikipedia ist das ein Weckruf. Die Plattform muss jetzt Wege finden, KI-generierte Inhalte zu erkennen und zu verifizieren – bevor das Vertrauen in die gesamte Enzyklopädie leidet.