- Тренд «tokenmaxxing» заставляет программистов гнаться за потреблением большого количества токенов ИИ (ресурсов обработки) вместо того, чтобы сосредоточиться на качестве результата.
- Инструменты вроде Claude Code, Cursor и Codex помогают генерировать больше кода, но большая его часть требует последующей правки, что снижает реальную эффективность.
- Первоначальный уровень принятия кода достигает 80%–90%, но после доработок истинный показатель составляет всего 10%–30%.
- Анализ Waydev данных более чем 10 000 инженеров показывает, что неверные измерения (основанные на входных данных, таких как токены) приводят к ложному пониманию продуктивности.
- Отчет GitClear указывает, что у пользователей ИИ показатель «code churn» (текучесть кода) в 9,4 раза выше, чем у тех, кто не использует ИИ.
- Faros AI зафиксировала рост показателя churn на 861% при высоком уровне использования ИИ.
- Jellyfish показывает, что программисты, использующие больше всего токенов, создают вдвое больше pull-запросов, но тратят в 10 раз больше средств, то есть увеличивают объем без роста ценности.
- Младшие разработчики легче принимают код ИИ, но им также приходится чаще его переделывать, что увеличивает технический долг.
📌 Заключение: Большой парадокс ИИ в программировании: несмотря на увеличение объема кода, качество и эффективность не соответствуют ожиданиям. Показатели принятия кода в 80%–90% на начальном этапе создают иллюзию продуктивности, хотя на деле лишь 10%–30% имеют долгосрочную ценность. При росте показателя churn в 9,4 раза и даже на 861%, компании платят больше (в 10 раз больше токенов) за количество вместо качества. Это говорит о необходимости изменения подходов к оценке эффективности ИИ.
