GPT的token是怎么计算的

百花齐放的AI模型

自从ChatGPT横空出世

计算机进入了AI时代

国内也诞生了不少优秀的替代品

讯飞系、通义系、文心等等

国内排名最高的阿里通义

720亿参数的模型Qwen-72B

力压Llama 2等国内外开源大模型

登顶Hugging Face的开源大模型排行榜首

包括C-Eval、CMMLU、Gaokao-Bench、AGIEval等参数

更是超过了GPT-4


随之而来

各个厂商也开启了AI应用接入的服务

比如讯飞星火

早在1.0、1.5版就提供了API接入的方式

后续各个厂商也逐步对齐

讯飞注册的时候

直接赠送200万的token使用量

哪怕收费版都做到了

几毛钱购买几万tokens的使用

那么问题来了

token是什么?

是文字吗?

图片等媒体怎么算费用呢?

自然语言处理

token的来源是NLP和机器学习的术语

指的是文本中的基本单位

如果简单理解就是文字/词的个数

比如 hello world

就是2个tokens

又比如 我爱北京天安门

就是7个tokens

不同厂商的算法略有不同

可能会有子词单元

比如定义了一些专业术语

北京,可以把这个词组当作一个整体token

标点符号也算1个token

但空格一般不算


对于多模内容服务

比如图片生成

我们可以通过输入prompt提示语

快速生成图片

这种计算则会将图像分割成不同的小块

然后每一块通过一个线性变换映射到一个更高维度的向量

最后加上位置编码形成最终的tokens

主要包括拆分、转换、编码等步骤

把图片想象成二维码就明白了

二维码是一堆黑白格子组成的

比如常见的一个512x512像素的区域

会算作约170个tokens

计费

比如我们在某某云购买了AI接入服务

以100万tokens为例

那是不是说

可以发送100万个文字呢?


这里有个误区

首先,输入输出都是算tokens的

就像20多年前

手机双向收费一样

打电话收钱

接电话也收钱

那使用AI对话也是一样

你发出去的文字

和AI回复的内容

都是要算成tokens的


而且如果您想要更好的对话效果

比如语言有前后连贯性

通常发送文字的时候

会将前文对话的来回内容

都再次发送给AI

因此每次消耗的tokens

远比你想象的多

以常规对话为例

我每次提问20个字

AI回复我500字

我连续提问三次

他回复三次

这时的消耗量是:

第一轮:20+500=520

第二轮:520+20+500=1040

第三轮:520+20+500=1560

...

以此类推,只要兼顾上下文

消耗量会成倍增长

因此为了节约成本

通常不会回传超过5句的上下文

体验AI

现在各大AI厂商都开始吸引用户

无论免费体验

还是API接入

门槛已经变得很低

新生事物多试试准没错

甚至还能帮我们写代码呢

反正不花钱

先体验一把

相关推荐
*星星之火*1 天前
【GPT入门】第49课 LlamaFacotory 训练千问
gpt
PythonPioneer2 天前
颠覆性进化:OpenAI正式发布GPT-5,AI大模型进入“超级智能”时代
人工智能·gpt
唐天下文化2 天前
bit-Agent正式接入GPT-5,九科信息智能体能力再升级!
人工智能·gpt
lisuwen1162 天前
GPT-5 上线风波深度复盘:从口碑两极到策略调整,OpenAI 的变与不变
大数据·人工智能·gpt·chatgpt
funfan05173 天前
GPT-5博士级AI使用教程及国内平替方案
人工智能·gpt
z千鑫3 天前
【OpenAI】 GPT-4o-realtime-preview 多模态、实时交互模型介绍+API的使用教程!
人工智能·gpt·语言模型·aigc
Code_流苏4 天前
AI热点周报(8.10~8.16):AI界“冰火两重天“,GPT-5陷入热议,DeepSeek R2模型训练受阻?
人工智能·gpt·gpt5·deepseek r2·ai热点·本周周报
oe10194 天前
读From GPT-2 to gpt-oss: Analyzing the Architectural Advances(续)
笔记·gpt·学习
小白杨树树4 天前
【LLM】文献阅读-ISOLATE GPT:基于大语言模型的执行隔离架构
人工智能·gpt·语言模型