Anthropic verrät Claude-Code-Quelltext durch Versehen
Source: nzz.ch
TL;DR
- Anthropic hat versehentlich Teile des Quellcodes seines KI-Modells Claude Code veröffentlicht.
- Der Code landete öffentlich auf GitHub und Hugging Face, bevor er gelöscht wurde.
- Experten warnen vor Sicherheitsrisiken durch die Enthüllung interner Trainingsdaten.
- Das Ereignis hebt Schwächen in der KI-Sicherheit hervor.
The story at a glance
Anthropic, führender KI-Entwickler, hat aus Versehen sensiblen Quellcode von Claude Code freigegeben – ein neues Tool für Programmierung. Die Geschichte wird jetzt berichtet, da der Vorfall Sicherheitslücken in der Branche aufdeckt.
Key moments & milestones
- Mittwoch: Anthropic lädt versehentlich Claude-Code-Repo auf GitHub und Hugging Face hoch.
- Kurz darauf: Nutzer entdecken und teilen den Code in Foren wie Hacker News.
- Donnerstag: Anthropic löscht die Repos und bestätigt den Fehler offiziell.
- Experten analysieren den Code und finden Hinweise auf Trainingsdaten sowie Sicherheitslücken.
Signature highlights
- Der freigegebene Code umfasst über 10.000 Zeilen und enthüllt interne Prompts sowie System-Prompts von Claude.
- Forscher wie Nathan Lambert identifizierten API-Schlüssel-Reste und Trainingsdaten aus Stack Overflow.
- Claude Code ist ein spezialisiertes Modell für Code-Generierung, das Anthropic kürzlich angekündigt hatte.
- Der Vorfall zeigt, wie einfach proprietärer KI-Code durch menschliches Versehen exponiert werden kann.
Key quotes
"Wir haben einen Fehler gemacht und das Repository zu früh hochgeladen."
- Anthropic-Sprecher
"Das ist ein Weckruf für die gesamte Branche."
- Sicherheitsexperte Nathan Lambert
Why it matters
Der Vorfall unterstreicht die Risiken bei der Handhabung sensibler KI-Quellcodes und könnte zu strengeren internen Protokollen führen. Er beeinträchtigt das Vertrauen in closed-source-Modelle wie Claude. Beobachten Sie Anthropics nächste Sicherheitsupdates und mögliche rechtliche Folgen.