最近在深入研究 TOON.NET 的时候,发现了一组非常有意思的基准测试数据。说实话,我对结果有点震惊------一个相对较新的格式,居然在多个主流 AI 大模型上的表现都远超 JSON 和 YAML。今天就想和大家好好聊聊这个发现,以及它背后的意义。
什么是 TOON?为什么它如此特殊
在深入测试结果之前,咱们得先理解 TOON 到底是个啥。
TOON(Text-Oriented Object Notation) 是一种轻量级的数据序列化格式,它的设计理念就是为了在保持人类可读性的同时,最大化地减少 token 消耗。相比 JSON 和 YAML 的冗长语法,TOON 采用了更加紧凑的表示方式:
- 元数据前置 :通过
[size]{fields}的方式声明数组大小和对象字段,一次性告诉模型即将到来的数据结构 - 紧凑的值表示:避免了 JSON 中大量的引号、冒号、括号等符号
- 结构化的分隔:用冒号和缩进来表达层级关系,而不是嵌套的括号
这种设计对 AI 模型来说有个天然的好处------结构信息更清晰,需要的上下文窗口更小。但这只是我的推测,真正的验证需要拿数据说话。
实战测试:从本地部署到数据分析
我决定按照项目提供的方式,亲自跑一遍完整的基准测试。过程其实不复杂,但需要一点点耐心。
环境准备
首先确保你的电脑装了 .NET 10 SDK 和 VSCode。这是跑测试的基础。然后克隆项目到本地:
shell
git clone https://github.com/AIDotNet/Toon.NET
启动基准测试
进入基准测试目录:
shell
cd benchmarks\AIDotNet.Toon.ModelBenchmarks
运行启动脚本(这是我最喜欢的地方------直接一个 bat 脚本,省去了手动配置的麻烦):
shell
.\run-benchmark.bat
脚本会交互式地询问你的配置。我这次的参数设置是:
shell
======================================================
AIDotNet.Toon 模型基准测试 启动脚本 (Windows .bat)
该脚本将引导你输入 API Key 和模型后启动程序
======================================================
请输入 OPENAI_API_KEY:[你的 API Key]
请输入模型名称(逗号分隔):gpt-5-mini,gpt-4o-mini,gemini-2.5-flash,grok-code-fast-1,claude-haiku-4.5
可选:每个任务运行次数 BENCHMARK_RUNS:5
可选:模型级并发 BENCHMARK_MODEL_PARALLELISM:5
然后就是等待。测试会并行执行多个模型和格式组合,进度条会实时显示:

数据揭露:TOON 的压倒性优势
等待大约 3 分多钟后,测试完成了。输出的汇总结果直接让我眼前一亮:
shell
正在启动基准测试(首次运行将进行构建)...
模型格式准确性基准(.NET)
claude-haiku-4.5 总结
┌──────────────┬──────────┬─────────────┬─────────────┐
│ 格式 │ 准确率 % │ 提示 Tokens │ 生成 Tokens │
├──────────────┼──────────┼─────────────┼─────────────┤
│ JSON │ 41.7 │ 150.2 │ 18.6 │
│ JSON compact │ 50.0 │ 115.2 │ 13.1 │
│ TOON │ 91.7 │ 110.5 │ 6.8 │
│ YAML │ 52.8 │ 120.3 │ 10.8 │
└──────────────┴──────────┴─────────────┴─────────────┘
gemini-2.5-flash 总结
┌──────────────┬──────────┬─────────────┬─────────────┐
│ 格式 │ 准确率 % │ 提示 Tokens │ 生成 Tokens │
├──────────────┼──────────┼─────────────┼─────────────┤
│ JSON │ 72.2 │ 152.1 │ 150.8 │
│ JSON compact │ 75.0 │ 111.2 │ 199.3 │
│ TOON │ 100.0 │ 106.2 │ 181.0 │
│ YAML │ 88.9 │ 123.9 │ 173.4 │
└──────────────┴──────────┴─────────────┴─────────────┘
gpt-4o-mini 总结
┌──────────────┬──────────┬─────────────┬─────────────┐
│ 格式 │ 准确率 % │ 提示 Tokens │ 生成 Tokens │
├──────────────┼──────────┼─────────────┼─────────────┤
│ JSON │ 41.7 │ 137.9 │ 9.4 │
│ JSON compact │ 36.1 │ 110.4 │ 8.3 │
│ TOON │ 83.3 │ 107.0 │ 4.1 │
│ YAML │ 50.0 │ 117.3 │ 9.5 │
└──────────────┴──────────┴─────────────┴─────────────┘
gpt-5-mini 总结
┌──────────────┬──────────┬─────────────┬─────────────┐
│ 格式 │ 准确率 % │ 提示 Tokens │ 生成 Tokens │
├──────────────┼──────────┼─────────────┼─────────────┤
│ JSON │ 58.3 │ 134.8 │ 277.4 │
│ JSON compact │ 58.3 │ 108.4 │ 323.7 │
│ TOON │ 83.3 │ 105.2 │ 152.8 │
│ YAML │ 75.0 │ 114.9 │ 300.4 │
└──────────────┴──────────┴─────────────┴─────────────┘
grok-code-fast-1 总结
┌──────────────┬──────────┬─────────────┬─────────────┐
│ 格式 │ 准确率 % │ 提示 Tokens │ 生成 Tokens │
├──────────────┼──────────┼─────────────┼─────────────┤
│ JSON │ 58.3 │ 330.0 │ 6.9 │
│ JSON compact │ 58.3 │ 301.9 │ 5.4 │
│ TOON │ 97.2 │ 290.7 │ 3.4 │
│ YAML │ 66.7 │ 301.3 │ 5.3 │
└──────────────┴──────────┴─────────────┴─────────────┘
关键数据洞察
1. 准确率:TOON 全面领先
看看准确率那一列,我觉得这是最能说明问题的地方:

- gemini-2.5-flash:TOON 达到了完美的 100% 准确率,其他格式最高也只有 88.9%(YAML)
- grok-code-fast-1:TOON 以 97.2% 击败其他所有格式,JSON 和 JSON compact 只有 58.3%
- claude-haiku-4.5:TOON 的 91.7% 远超 JSON 的 41.7% 和 YAML 的 52.8%
- gpt-4o-mini:TOON 的 83.3% 高出第二名 YAML(50%)整整 33 个百分点
- gpt-5-mini:TOON 的 83.3% 同样稳健领先
这不是偶然现象,而是一个在所有五个主流大模型上都能重现的规律。
2. Token 消耗:成本与效率的双重胜利
这里更有意思。不仅准确率高,TOON 的 token 占用也是最低的:

看看提示 Token 和生成 Token 的平均消耗:
| 模型 | 格式 | 平均提示 Tokens | 平均生成 Tokens | 平均总 Tokens |
|---|---|---|---|---|
| claude-haiku-4.5 | JSON | 150.2 | 18.6 | 168.9 |
| claude-haiku-4.5 | JSON compact | 115.2 | 13.1 | 128.3 |
| claude-haiku-4.5 | TOON | 110.5 | 6.8 | 117.3 |
| claude-haiku-4.5 | YAML | 120.3 | 10.8 | 131.1 |
| gemini-2.5-flash | JSON | 152.1 | 150.8 | 302.9 |
| gemini-2.5-flash | JSON compact | 111.2 | 199.3 | 310.4 |
| gemini-2.5-flash | TOON | 106.2 | 181.0 | 287.2 |
| gemini-2.5-flash | YAML | 123.9 | 173.4 | 297.3 |
| gpt-4o-mini | JSON | 137.9 | 9.4 | 147.3 |
| gpt-4o-mini | JSON compact | 110.4 | 8.3 | 118.7 |
| gpt-4o-mini | TOON | 107.0 | 4.1 | 111.1 |
| gpt-4o-mini | YAML | 117.3 | 9.5 | 126.8 |
| gpt-5-mini | JSON | 134.8 | 277.4 | 412.2 |
| gpt-5-mini | JSON compact | 108.4 | 323.7 | 432.0 |
| gpt-5-mini | TOON | 105.2 | 152.8 | 258.0 |
| gpt-5-mini | YAML | 114.9 | 300.4 | 415.3 |
| grok-code-fast-1 | JSON | 330.0 | 6.9 | 336.9 |
| grok-code-fast-1 | JSON compact | 301.9 | 5.4 | 307.3 |
| grok-code-fast-1 | TOON | 290.7 | 3.4 | 294.1 |
| grok-code-fast-1 | YAML | 301.3 | 5.2 | 306.5 |
看到这组数据,我当时的反应就是------这简直是在替开发者省钱。对于大规模数据传输的场景,token 消耗的降低直接转化为 API 调用成本的下降。
为什么 TOON 会这么"聪明"?
说实话,这个问题我琢磨了一会儿。为什么 AI 模型对 TOON 格式的理解能力会这么强?
我的初步理解是:
-
信息密度更高:TOON 的结构化表示让模型能更快速地建立起"这是一个包含 N 个元素、每个元素有 M 个字段"的心智模型,而不需要逐个解析括号和引号。
-
更少的干扰信息:JSON 的语法糖虽然对人类友好,但对模型来说是额外的认知负担。TOON 则直奔主题。
-
预测路径更清晰:TOON 的规则性强,模型的 next-token 预测变得更有把握。这在 token 生成阶段表现为更少的"纠结",生成结果也更准确。
实际应用场景:什么时候该用 TOON?
基于这些数据,我的建议是:
- 大数据量场景:API 调用传输 MB 级别的数据时,TOON 的 token 节省会非常显著
- 成本敏感项目:每一个 token 都算钱的时候,TOON 的优势不可忽视
- 高准确率要求:需要模型准确理解和处理结构化数据时,TOON 是更好的选择
- .NET 生态:如果你本身就是 .NET 栈,有现成的 SDK 支持,何乐而不为
C# 快速上手:用 TOON SDK 序列化数据
如果你是 .NET 开发者,我得好好介绍一下官方提供的 SDK,因为用起来真的很舒服。
安装
通过 NuGet 一行命令搞定:
bash
dotnet add package AIDotNet.Toon
序列化为 TOON
csharp
using Toon;
var options = new ToonSerializerOptions
{
Indent = 2, // 用 2 个空格缩进
Delimiter = ToonDelimiter.Comma, // 用逗号分隔值
Strict = true, // 严格模式
LengthMarker = null // 不添加额外的长度标记
};
var data = new
{
users = new[]
{
new { name = "alice", age = 30 },
new { name = "bob", age = 25 }
},
tags = new[] { "a", "b", "c" },
numbers = new[] { 1, 2, 3 }
};
string toonText = ToonSerializer.Serialize(data, options);
// 输出结果是这样的:
// users[2]{name,age}:
// alice,30
// bob,25
// tags[3]: a,b,c
// numbers[3]: 1,2,3
看看这个输出格式,是不是特别清爽?没有多余的符号,每一个数据都清清楚楚地摆在那里。
反序列化(当前支持原子值)
csharp
using Toon;
var s = ToonSerializer.Deserialize<string>("hello", options); // "hello"
var n = ToonSerializer.Deserialize<double>("3.1415", options); // 3.1415
目前反序列化还在完善中,但对于发送数据给 AI 模型的场景(这是我们的主要用途),序列化功能已经足够强大了。
总结:一个小格式的大潜力
这次测试让我认识到,有时候看似"新奇"的技术方案,真的是在踏踏实实地解决实际问题。TOON 不是为了标新立异而标新立异,它的每一个设计决策都指向一个目标------让 AI 模型理解得更快、更准,让开发者的成本更低。
在 AI 时代,结构化数据的表示方式直接关系到应用的成本和体验。如果你还在用 JSON 传输大量数据给 AI 模型,不妨试试 TOON,相信你会有惊喜的发现。
项目地址:https://github.com/AIDotNet/Toon.NET
官方地址:https://github.com/toon-format/toon
toon标准:https://github.com/toon-format/spec
如果这篇文章对你有帮助,请记得给项目一个 Star!每一个 Star 都是对开源作者的认可,也会激励他们继续打磨这个工具。