百花齐放的AI模型
自从ChatGPT横空出世
计算机进入了AI时代
国内也诞生了不少优秀的替代品
讯飞系、通义系、文心等等
国内排名最高的阿里通义
720亿参数的模型Qwen-72B
力压Llama 2等国内外开源大模型
登顶Hugging Face的开源大模型排行榜首
包括C-Eval、CMMLU、Gaokao-Bench、AGIEval等参数
更是超过了GPT-4
随之而来
各个厂商也开启了AI应用接入的服务
比如讯飞星火
早在1.0、1.5版就提供了API接入的方式
后续各个厂商也逐步对齐
讯飞注册的时候
直接赠送200万的token使用量
哪怕收费版都做到了
几毛钱购买几万tokens的使用
那么问题来了
token是什么?
是文字吗?
图片等媒体怎么算费用呢?
自然语言处理
token的来源是NLP和机器学习的术语
指的是文本中的基本单位
如果简单理解就是文字/词的个数
比如 hello world
就是2个tokens
又比如 我爱北京天安门
就是7个tokens
不同厂商的算法略有不同
可能会有子词单元
比如定义了一些专业术语
北京,可以把这个词组当作一个整体token
标点符号也算1个token
但空格一般不算
对于多模内容服务
比如图片生成
我们可以通过输入prompt提示语
快速生成图片
这种计算则会将图像分割成不同的小块
然后每一块通过一个线性变换映射到一个更高维度的向量
最后加上位置编码形成最终的tokens
主要包括拆分、转换、编码等步骤
把图片想象成二维码就明白了
二维码是一堆黑白格子组成的
比如常见的一个512x512像素的区域
会算作约170个tokens
计费
比如我们在某某云购买了AI接入服务
以100万tokens为例
那是不是说
可以发送100万个文字呢?
这里有个误区
首先,输入输出都是算tokens的
就像20多年前
手机双向收费一样
打电话收钱
接电话也收钱
那使用AI对话也是一样
你发出去的文字
和AI回复的内容
都是要算成tokens的
而且如果您想要更好的对话效果
比如语言有前后连贯性
通常发送文字的时候
会将前文对话的来回内容
都再次发送给AI
因此每次消耗的tokens
远比你想象的多
以常规对话为例
我每次提问20个字
AI回复我500字
我连续提问三次
他回复三次
这时的消耗量是:
第一轮:20+500=520
第二轮:520+20+500=1040
第三轮:520+20+500=1560
...
以此类推,只要兼顾上下文
消耗量会成倍增长
因此为了节约成本
通常不会回传超过5句的上下文
体验AI
现在各大AI厂商都开始吸引用户
无论免费体验
还是API接入
门槛已经变得很低
新生事物多试试准没错
甚至还能帮我们写代码呢
反正不花钱
先体验一把