- Der Trend zum „Tokenmaxxing“ führt dazu, dass Programmierer eher auf den Verbrauch von KI-Token (Verarbeitungsressourcen) achten, als sich auf die Qualität des Outputs zu konzentrieren.
- Tools wie Claude Code, Cursor und Codex helfen dabei, mehr Code zu erstellen, aber der Großteil muss nachträglich bearbeitet werden, was die reale Effizienz mindert.
- Die anfängliche Akzeptanzrate des Codes liegt bei 80 %–90 %, aber nach den Korrekturen sinkt die tatsächliche Rate auf nur noch 10 %–30 %.
- Eine Analyse von Waydev bei über 10.000 Ingenieuren zeigt, dass falsche Messungen (basierend auf Inputs wie Token) zu einem Missverständnis der Produktivität führen.
- Ein Bericht von GitClear weist darauf hin, dass KI-Nutzer eine 9,4-mal höhere „Code Churn“-Rate (Code-Verwerfungsrate) haben als Nicht-KI-Nutzer.
- Faros AI verzeichnete einen Anstieg des Churn um bis zu 861 % bei hoher KI-Nutzung.
- Jellyfish zeigt, dass Programmierer, die die meisten Token verbrauchen, zwar doppelt so viele Pull-Requests erstellen, aber die 10-fachen Kosten verursachen – also mehr Output ohne Mehrwert.
- Junior-Programmierer akzeptieren KI-Code eher, müssen ihn aber auch öfter korrigieren, was die technischen Schulden erhöht.
📌 Fazit: Das große KI-Paradoxon in der Programmierung: Obwohl mehr Code erzeugt wird, entsprechen Qualität und Effizienz nicht dem Volumen. Kennzahlen wie eine anfängliche Akzeptanz von 80 %–90 % erzeugen eine Illusion von Produktivität, während in der Realität nur 10 %–30 % langfristigen Wert haben. Mit einem Anstieg des Churn um das 9,4-fache oder gar 861 % zahlen Unternehmen höhere Kosten (10-fache Token), um Menge statt Wert zu erhalten. Dies verdeutlicht die Notwendigkeit, die Erfolgsmessung von KI zu überdenken.

