- La tendenza al “tokenmaxxing” spinge i programmatori a inseguire un alto consumo di token IA (risorse di elaborazione) invece di concentrarsi sulla qualità dell’output.
- Strumenti come Claude Code, Cursor e Codex aiutano a generare più codice, ma la maggior parte richiede modifiche successive, riducendo l’efficienza reale.
- Il tasso di accettazione iniziale del codice raggiunge l’80%–90%, ma dopo le revisioni, il tasso reale scende al solo 10%–30%.
- L’analisi di Waydev su oltre 10.000 ingegneri mostra che una misurazione errata (basata su input come i token) porta a un malinteso sulla produttività.
- Un rapporto di GitClear indica che gli utenti IA hanno un tasso di “code churn” (codice riscritto o eliminato) 9,4 volte superiore rispetto a chi non usa l’IA.
- Faros AI ha registrato un aumento del churn dell’861% con un’adozione elevata dell’IA.
- Jellyfish mostra che i programmatori che usano più token creano il doppio delle pull request ma con costi 10 volte superiori, ovvero aumentano la produzione ma non il valore.
- I programmatori junior accettano più facilmente il codice dell’IA, ma devono anche correggerlo di più, aumentando il debito tecnico.
📌 Conclusione: Il grande paradosso dell’IA nella programmazione: nonostante venga generato più codice, la qualità e l’efficienza non sono proporzionate. Indicatori come l’80%–90% di accettazione iniziale creano un’illusione di produttività, ma in realtà solo il 10%–30% ha valore a lungo termine. Con un churn aumentato di 9,4 volte e persino dell’861%, le aziende pagano costi più elevati (10 volte i token) in cambio di quantità invece che di valore. Ciò dimostra la necessità di cambiare il modo in cui viene misurata l’efficacia dell’IA.

