- La tendance au « tokenmaxxing » pousse les développeurs à privilégier la consommation de tokens IA (ressources de traitement) plutôt que la qualité du résultat.
- Des outils comme Claude Code, Cursor et Codex aident à générer plus de code, mais la majeure partie nécessite des corrections ultérieures, réduisant l’efficacité réelle.
- Le taux d’acceptation initial du code atteint 80 %–90 %, mais après modifications, le taux réel tombe à seulement 10 %–30 %.
- L’analyse de Waydev sur plus de 10 000 ingénieurs montre qu’une mauvaise mesure (basée sur des entrées comme les tokens) conduit à une mécompréhension de la productivité.
- Un rapport de GitClear indique que les utilisateurs d’IA ont un taux de « code churn » (code supprimé ou modifié) 9,4 fois plus élevé que les non-utilisateurs.
- Faros AI a enregistré une augmentation du churn allant jusqu’à 861 % lors d’une adoption massive de l’IA.
- Jellyfish montre que les développeurs utilisant le plus de tokens créent deux fois plus de pull requests mais coûtent 10 fois plus cher, augmentant la production sans augmenter la valeur.
- Les développeurs juniors acceptent plus facilement le code de l’IA, mais doivent aussi le corriger davantage, augmentant la dette technique.
📌 Conclusion : Le grand paradoxe de l’IA dans la programmation : bien que plus de code soit généré, la qualité et l’efficacité ne suivent pas. Des indicateurs comme 80 %–90 % d’acceptation initiale créent une illusion de productivité, alors qu’en réalité, seuls 10 %–30 % ont une valeur à long terme. Avec un churn multiplié par 9,4 voire par 861 %, les entreprises paient plus cher (10 fois plus de tokens) pour obtenir du volume plutôt que de la valeur. Cela démontre la nécessité de changer la façon de mesurer l’efficacité de l’IA.

