- 「tokenmaxxing」の傾向により、プログラマーが出力の質よりもAIトークン(処理リソース)の消費量を追い求めるようになっている。
- Claude Code、Cursor、Codexなどのツールはより多くのコードを生成するが、その多くは後で修正が必要になり、実質的な効率を下げている。
- 当初のコード採用率は80%〜90%に達するが、修正後、真の採用率はわずか10%〜30%にとどまる。
- Waydevが1万人以上のエンジニアのデータを分析した結果、トークンのようなインプットに基づく誤った測定が、生産性への誤解を招いていることがわかった。
- GitClearのレポートによると、AI利用者の「コード・チャーン(修正・削除率)」は、非利用者の9.4倍に達している。
- Faros AIは、AIを高度に活用した場合、コード・チャーンが861%も増加したと記録している。
- Jellyfishの調査では、トークンを最も多く消費するプログラマーは2倍のプルリクエストを作成するが、コストは10倍かかっており、生産量は増えても価値は増えていないことが示された。
- ジュニアプログラマーはAIコードを受け入れやすいが、その分修正も多くなり、技術的負債を増大させている。
📌 結論: プログラミングにおけるAIの大きな逆説:生成されるコードは増えても、質と効率が伴っていない。当初の採用率80%〜90%という数字は生産性の幻想を生んでいるが、実際には10%〜30%しか長期的価値がない。チャーンが9.4倍、さらには861%も増加している現状では、企業は価値の代わりに生産量を得るために高いコスト(10倍のトークン)を支払っている。これはAIの効率測定方法を変える必要があることを示している。

