Anthropic interne Ingenieure haben fast aufgehört, selbst Code zu schreiben, und übergeben alles Claude; das tiefere Problem ist, dass Claude dabei hilft, die nächste Generation von Claude zu trainieren, und der geschlossene Kreis der Selbstentwicklung von KI sich rasch verengt.
Dieser Artikel stammt von Dario Amodei aus einem Interview im Dwarkesh Podcast, bearbeitet und übersetzt von PA影音.
(Vorgeschichte: 10 Jahre Feindschaft: Wenn OpenAI nicht heuchlerisch gewesen wäre, gäbe es nicht die Stärke von Anthropic)
(Hintergrundinformation: 360周鴻禕: Token werden niemals wie Mobilfunktarife „Flatrate“ sein, KI wird immer teurer werden mit zunehmender Nutzung)
Inhaltsverzeichnis
Toggle
Was ist der Alltag der Ingenieure bei Anthropic? Laut verschiedenen Aussagen, die von PA影音 zusammengestellt wurden, ist die Antwort ziemlich klar: Claude starten, sehen, wie es den Code schreibt, und dann „einen Blick darauf werfen“, um zu bestätigen, dass alles in Ordnung ist. Ein Bericht von Fortune gibt quantitative Zahlen an – der Anteil an Code, der von KI im gesamten Unternehmen Anthropic geschrieben wird, liegt zwischen 70 % und 90 %, während der Anteil der Spitzeningenieure direkt bei 100 % liegt.
Diese Frage verdient eine ernsthafte Antwort, denn die Antwort ist beunruhigender, als es auf den ersten Blick scheint.
Die Vorhersage von Boris Cherny, dem Gründer von Claude Code, lautet: Der Titel „Software-Ingenieur“ wird 2026 beginnen, „verschwinden“ zu können. Er verwendet keine beschönigenden Worte und ergänzt direkt: „Es wird für viele Menschen schmerzhaft sein.“ Wenn selbst die internen Ingenieure von Anthropic keinen Code mehr schreiben, was machen sie dann eigentlich?
Die Antwort lautet: Sie trainieren die nächste Generation von KI.
Und das Werkzeug zum Trainieren der nächsten Generation von KI ist Claude. Mit anderen Worten, Claude verwendet den Code, den es selbst generiert hat, um an der Gestaltung der nächsten Version von Claude teilzunehmen. Dieser Kreislauf klingt nach Science-Fiction, ist aber inzwischen Teil des täglichen Arbeitsablaufs von Anthropic.
CEO Dario Amodei hat in der Öffentlichkeit zugegeben, dass auch er keinen Code mehr schreibt. Noch bemerkenswerter ist, was er als nächstes sagt: „Dieser Kreislauf schließt sich rasch, und ich bin mir nicht sicher, wie viel Zeit uns noch bleibt.“
Dieser Satz kann auf zwei Arten interpretiert werden. Die optimistische Version lautet: KI beschleunigt die Evolution, die Menschheit tritt in die nächste Produktivitätsstufe ein. Die pessimistische Version lautet: Die Anwesenden, einschließlich Dario selbst, sind sich nicht sicher, wo dieser Beschleunigungsprozess stoppen wird oder ob er überhaupt stoppen wird.
Es ist erwähnenswert, dass Anthropic gleichzeitig prognostiziert, dass KI-Modelle innerhalb von 6 bis 12 Monaten in der Lage sein werden, Software-Ingenieure zu ersetzen. Dieses Zeitfenster reicht von Mitte 2026 bis Anfang 2027. Das ist nicht weit entfernt.
Der geschlossene Kreis von „KI trainiert KI“ ist technisch nicht neu. Synthetische Daten, RLHF und Modell-Destillation weisen ähnliche selbstreferenzielle Strukturen auf. Aber der Fall von Anthropic hat eine subtile Differenz: Es wird nicht KI verwendet, um Trainingsdaten zu generieren, sondern KI wird direkt an Ingenieurentscheidungen beteiligt – zu entscheiden, welche Funktionen umgesetzt werden sollen, wie sie implementiert werden sollen und wie Bugs behoben werden.
In diesem Prozess wird die Rolle des menschlichen Ingenieurs von „Entscheidungsträger“ zu „Prüfer“ herabgestuft, und die Prüfstandards werden immer noch von Menschen bewertet. Das Problem ist, dass, wenn die Ausgabegeschwindigkeit und Komplexität von KI weit über die Prüfkapazitäten der Menschen hinausgeht, wie viel tatsächliche Bedeutung hat dann noch der „Blick darauf“?
Derzeit gibt es darauf keine Antwort. Dario sagt, er sei sich nicht sicher, wie viel Zeit noch bleibt, Boris sagt, es wird schmerzhaft sein, und die Zahlen von Anthropic sagen 70 % bis 90 %. Diese Aussagen sind präzise, erklären aber nicht, „was danach kommt“.