Alarmstufe Rot: Anthropic und OpenAI kippen zentrale Sicherheitsversprechen

Alarmstufe Rot: Anthropic und OpenAI kippen zentrale Sicherheitsversprechen

Das AI-Wettrüsten fordert seinen Preis – und diesmal zahlen die Sicherheitsvorkehrungen. Laut einem TIME-Bericht hat Anthropic zentrale Passagen aus seiner "Responsible Scaling Policy" gestrichen. OpenAI zieht mit ähnlichen Lockerungen nach. Die Botschaft: Geschwindigkeit schlägt Vorsicht.

Anthropic galt bisher als das "sichere" KI-Labor. Das Unternehmen wurde von Ex-OpenAI-Forschern gegründet, die sich mehr Fokus auf AI Safety wünschten. Doch unter dem Druck des Wettbewerbs weicht auch Anthropic seine Grundsätze auf.

Konkret gestrichen: Das Versprechen, keine fortgeschrittenen KI-Systeme zu trainieren, ohne dass entsprechende Sicherheitsvorkehrungen garantiert sind. Eine Formulierung, die als Rückgrat der Unternehmensphilosophie galt.

OpenAI macht ähnliche Bewegungen. Die "Safety-first"-Rhetorik der frühen Jahre ist längst einem aggressiveren Ton gewichen. CEO Sam Altman spricht öfter von Marktführerschaft als von Existenzrisiken.

Die Timing ist kein Zufall: xAI, Google DeepMind und Meta AI legen ein brutales Tempo vor. Wer bremst, verliert. Das wissen auch die selbsternannten Sicherheitsapostel.

Für die Branche ist das ein Warnsignal. Wenn selbst Anthropic – gegründet aus Sorge um AI Safety – seine Versprechen lockert, wer hält dann noch die Fahne hoch? Die Antwort könnte ernüchternd sein: niemand, der im Rennen bleiben will.