使用claude code时,为什么token消费会突然一下变高

最近在使用claude code时,突然发现一个问题:

在同一轮对话中,为什么我token的消耗量,总是有那么几次特别高?如下图所示:

可以看到,前后几次请求消耗的token都是正常值,只有这么一下特别高。

我们都知道,每次发消息给模型,都会带上之前几轮对话的上下文。

那么,每次新对话其实带上的上下文有很大部分都是重复的。

不能让重复的数据白白耗费不必要的token呀。

所以,缓存功能诞生。

缓存机制:其核心在于"空间换时间",它将模型对输入文本处理后的中间计算结果(Key 和 Value 向量)保存在显存中。如果不使用缓存,模型每生成一个新词,都需要重新计算前面所有词的关系,这会导致计算量随字数增加呈指数级增长;有了缓存后,模型只需计算当前新产生的 Token,并直接读取内存里的"既定记忆",从而消除了重复劳动,大幅降低了计算成本与响应延迟。

在实际运行中,流程分为预填充、解码两个阶段。首先,系统会对你输入的 Prompt 进行一次性处理,将生成的 KV 向量存入缓存层;随后进入生成环节,模型每预测出一个新 Token,就会将其计算结果实时更新到缓存中,供下一个词的生成使用。如果是支持 Context Caching 的长文本场景,系统还会对固定内容进行持久化存储,当你再次调用相同背景资料时,模型会直接跳过预填充阶段,实现瞬间"唤醒"并开始回答。

接着,我们再说一下token的价格组成:

  • 输入(Input): 你给模型的"原材料",模型一次性读取并理解,计算效率高,价格最便宜。

  • 输出(Output): 模型吐出的"成品",由于需要逐字推理生成,消耗算力最大,价格最贵。

  • 缓存(Cache): 预先存好的"半成品",将重复使用的长文本存在内存里,省去了重复计算,大幅降低了成本和延迟。

缓存的token的价格是要比输入输出token的价格更低的,所以这也是为什么能省钱的原因。

那么回到我们最开始的问题,为什么我的token消费时高时低?

只有一种可能------平时对话时,命中缓存,消费低。当缓存过期时,下一次对话不仅无法命中花奴才能,还要重新构建缓存,这就造成消费高。

再看刚刚的截图,消费高的那一轮对话,和上一轮对话的间隔时间通常都比较长。这也再次印证了,确实是缓存过期的问题。

关于缓存过期的时间:

在之前,anthropic设定的缓存时间一直是1h,但在前几天,anthropic将缓存时间改为了5min。这也造成了越来越频繁的缓存过期问题,token消费自然也就高了。

相关推荐
蓝瑟5 小时前
当"指挥 AI"成为核心技能,工程师的护城河在哪里?
人工智能·程序员·ai编程
听麟5 小时前
HarmonyOS 6.0+ 智能语音笔记APP开发实战:实时转写与多模态内容整合落地
人工智能·华为·harmonyos
科研前沿5 小时前
智慧军营三维实时重构与人员定位应用价值及技术突破
大数据·人工智能·重构
南宫萧幕5 小时前
Simulink 发动机闭环控制仿真实战:从底层搭建、Scope 调试到论文级 MAP 图输出
人工智能·matlab·汽车·控制
oscar9995 小时前
当 AI 学会“动手”:DeepSeek-TUI 是如何用终端颠覆编程工作的?
人工智能·deepseek-tui
MY_TEUCK5 小时前
【MY_TRUCK - AI 应用】RAG 与 LangChain 入门:检索增强生成、向量检索与链式编排
人工智能·机器学习·langchain
theaiera5 小时前
用 Tauri 写一个 AI Chat:3MB 的桌面应用干翻 Electron 100MB
人工智能
scglwsj5 小时前
Spec:让 AI 在实现前真正理解问题
人工智能
狐狐生风5 小时前
LangGraph 核心概念全解笔记
人工智能·python·langchain·prompt·langgraph
EAIReport5 小时前
深度拆解WorkBuddy技术实现:腾讯云全场景AI智能体的架构设计与核心逻辑
人工智能·云计算·腾讯云