GPT的token是怎么计算的

百花齐放的AI模型

自从ChatGPT横空出世

计算机进入了AI时代

国内也诞生了不少优秀的替代品

讯飞系、通义系、文心等等

国内排名最高的阿里通义

720亿参数的模型Qwen-72B

力压Llama 2等国内外开源大模型

登顶Hugging Face的开源大模型排行榜首

包括C-Eval、CMMLU、Gaokao-Bench、AGIEval等参数

更是超过了GPT-4


随之而来

各个厂商也开启了AI应用接入的服务

比如讯飞星火

早在1.0、1.5版就提供了API接入的方式

后续各个厂商也逐步对齐

讯飞注册的时候

直接赠送200万的token使用量

哪怕收费版都做到了

几毛钱购买几万tokens的使用

那么问题来了

token是什么?

是文字吗?

图片等媒体怎么算费用呢?

自然语言处理

token的来源是NLP和机器学习的术语

指的是文本中的基本单位

如果简单理解就是文字/词的个数

比如 hello world

就是2个tokens

又比如 我爱北京天安门

就是7个tokens

不同厂商的算法略有不同

可能会有子词单元

比如定义了一些专业术语

北京,可以把这个词组当作一个整体token

标点符号也算1个token

但空格一般不算


对于多模内容服务

比如图片生成

我们可以通过输入prompt提示语

快速生成图片

这种计算则会将图像分割成不同的小块

然后每一块通过一个线性变换映射到一个更高维度的向量

最后加上位置编码形成最终的tokens

主要包括拆分、转换、编码等步骤

把图片想象成二维码就明白了

二维码是一堆黑白格子组成的

比如常见的一个512x512像素的区域

会算作约170个tokens

计费

比如我们在某某云购买了AI接入服务

以100万tokens为例

那是不是说

可以发送100万个文字呢?


这里有个误区

首先,输入输出都是算tokens的

就像20多年前

手机双向收费一样

打电话收钱

接电话也收钱

那使用AI对话也是一样

你发出去的文字

和AI回复的内容

都是要算成tokens的


而且如果您想要更好的对话效果

比如语言有前后连贯性

通常发送文字的时候

会将前文对话的来回内容

都再次发送给AI

因此每次消耗的tokens

远比你想象的多

以常规对话为例

我每次提问20个字

AI回复我500字

我连续提问三次

他回复三次

这时的消耗量是:

第一轮:20+500=520

第二轮:520+20+500=1040

第三轮:520+20+500=1560

...

以此类推,只要兼顾上下文

消耗量会成倍增长

因此为了节约成本

通常不会回传超过5句的上下文

体验AI

现在各大AI厂商都开始吸引用户

无论免费体验

还是API接入

门槛已经变得很低

新生事物多试试准没错

甚至还能帮我们写代码呢

反正不花钱

先体验一把

相关推荐
2501_948114247 天前
【2026架构实战】GPT-5.3与蒸汽数据融合:基于Open Claw与星链4SAPI的RAG落地指南
gpt·架构
小雨中_9 天前
3.1 GPT 系列:Generative Pre-Training(从 GPT-1 到 GPT-3)
人工智能·gpt·深度学习·机器学习·自然语言处理·gpt-3
香芋Yu9 天前
【2026大模型面试圣经】(2)主流大模型架构全景 | GPT/LLaMA/DeepSeek/Qwen深度对比
gpt·面试·架构
一个努力编程人10 天前
NLP领域————GPT算法
人工智能·gpt·自然语言处理
狮子座明仔10 天前
REDSearcher:如何用30B参数的小模型,在深度搜索上击败GPT-o3和Gemini?
人工智能·gpt·深度学习·microsoft·语言模型·自然语言处理
智算菩萨11 天前
2026年春节后,AI大模型格局彻底变了——Claude 4.6、GPT-5.2与六大国产模型全面横评
人工智能·gpt·ai编程
Learner__Q14 天前
GPT模型入门教程:从原理到实现
python·gpt
五月君_14 天前
除夕夜炸场!Qwen 3.5 正式发布:激活仅 17B,性能硬刚 GPT-5.2?
gpt
向量引擎小橙16 天前
视觉艺术的“奇点”:深度拆解 Gemini-3-Pro-Image-Preview 绘画模型,看这只“香蕉”如何重塑 AI 创作逻辑!
人工智能·python·gpt·深度学习·llama
阿乐艾官16 天前
【MBR与GPT分区】
gpt