GPT的token是怎么计算的

百花齐放的AI模型

自从ChatGPT横空出世

计算机进入了AI时代

国内也诞生了不少优秀的替代品

讯飞系、通义系、文心等等

国内排名最高的阿里通义

720亿参数的模型Qwen-72B

力压Llama 2等国内外开源大模型

登顶Hugging Face的开源大模型排行榜首

包括C-Eval、CMMLU、Gaokao-Bench、AGIEval等参数

更是超过了GPT-4


随之而来

各个厂商也开启了AI应用接入的服务

比如讯飞星火

早在1.0、1.5版就提供了API接入的方式

后续各个厂商也逐步对齐

讯飞注册的时候

直接赠送200万的token使用量

哪怕收费版都做到了

几毛钱购买几万tokens的使用

那么问题来了

token是什么?

是文字吗?

图片等媒体怎么算费用呢?

自然语言处理

token的来源是NLP和机器学习的术语

指的是文本中的基本单位

如果简单理解就是文字/词的个数

比如 hello world

就是2个tokens

又比如 我爱北京天安门

就是7个tokens

不同厂商的算法略有不同

可能会有子词单元

比如定义了一些专业术语

北京,可以把这个词组当作一个整体token

标点符号也算1个token

但空格一般不算


对于多模内容服务

比如图片生成

我们可以通过输入prompt提示语

快速生成图片

这种计算则会将图像分割成不同的小块

然后每一块通过一个线性变换映射到一个更高维度的向量

最后加上位置编码形成最终的tokens

主要包括拆分、转换、编码等步骤

把图片想象成二维码就明白了

二维码是一堆黑白格子组成的

比如常见的一个512x512像素的区域

会算作约170个tokens

计费

比如我们在某某云购买了AI接入服务

以100万tokens为例

那是不是说

可以发送100万个文字呢?


这里有个误区

首先,输入输出都是算tokens的

就像20多年前

手机双向收费一样

打电话收钱

接电话也收钱

那使用AI对话也是一样

你发出去的文字

和AI回复的内容

都是要算成tokens的


而且如果您想要更好的对话效果

比如语言有前后连贯性

通常发送文字的时候

会将前文对话的来回内容

都再次发送给AI

因此每次消耗的tokens

远比你想象的多

以常规对话为例

我每次提问20个字

AI回复我500字

我连续提问三次

他回复三次

这时的消耗量是:

第一轮:20+500=520

第二轮:520+20+500=1040

第三轮:520+20+500=1560

...

以此类推,只要兼顾上下文

消耗量会成倍增长

因此为了节约成本

通常不会回传超过5句的上下文

体验AI

现在各大AI厂商都开始吸引用户

无论免费体验

还是API接入

门槛已经变得很低

新生事物多试试准没错

甚至还能帮我们写代码呢

反正不花钱

先体验一把

相关推荐
前端小盆友15 小时前
从零实现一个GPT 【React + Express】--- 【3】解析markdown,处理模型记忆
gpt·react.js
资讯分享周1 天前
Alpha系统联结大数据、GPT两大功能,助力律所管理降本增效
大数据·gpt
猫头虎2 天前
猫头虎 AI工具分享:一个网页抓取、结构化数据提取、网页爬取、浏览器自动化操作工具:Hyperbrowser MCP
运维·人工智能·gpt·开源·自动化·文心一言·ai编程
北京地铁1号线3 天前
GPT-2论文阅读:Language Models are Unsupervised Multitask Learners
论文阅读·gpt·语言模型
前端小盆友4 天前
从零实现一个GPT 【React + Express】--- 【2】实现对话流和停止生成
前端·gpt·react.js
牛大了202314 天前
【LLM学习】2-简短学习BERT、GPT主流大模型
gpt·学习·bert
1213414 天前
LLM:重构数字世界的“智能操作系统”
gpt·aigc·ai编程·llama·gpu算力
叠叠乐20 天前
ROS2编译的理解,与GPT对话
gpt
蚂蚁数据AntData21 天前
DB-GPT V0.7.2 版本更新:图表组件可视化增强、支持混合搜索 、支持DeepSeek-R1-0528模型等
大数据·数据库·gpt·架构·数据库架构
PacosonSWJTU25 天前
加载GPT-2模型参数报错:TensorFlow不存在
人工智能·gpt·tensorflow