一、先给结论(JS 可行性)
- 华为 NLU 底层:BERT/ERNIE(Transformer Encoder)
- JS 能跑的前提:必须是轻量版 + 量化 + ONNX
- 700M + 原版:浏览器直接卡死,必须换小模型
二、JS 可运行、可二次训练的中文 NLU 模型
1. 首选:轻量 BERT/ERNIE(同华为架构,JS 直接跑)
-
Xenova/chinese-bert-wwm-ext-quantized (INT8 量化,~70M)https://huggingface.co/Xenova/chinese-bert-wwm-ext-quantized
- 体积:70MB(原版 700M 的 1/10)
- 架构:BERT(同华为 ERNIE)
- 支持:意图分类、实体抽取、结构化指令
- JS:用Transformers.js直接加载,无需后端
-
Xenova/ernie-3.0-mini-zh-quantized (ERNIE 迷你量化,~50M)https://huggingface.co/Xenova/ernie-3.0-mini-zh-quantized
- 体积:50MB
- 架构:ERNIE(华为同款)
- 适合:端侧 / 浏览器,二次训练友好
2. 超轻量 NLU(纯 JS,几 MB,最快)
-
Hermes NLU (纯 JS,<10MB,意图 + 槽位)https://github.com/chez-mito/hermes-nlu
- 完全 JS 原生,无需 ONNX
- 训练:用 JSON 标注意图,直接训练
- 输出:结构化指令(intent+entities)
-
Snips NLU JS (老牌离线 NLU,几 MB~30MB)https://github.com/snipsco/snips-nlu-js
- 支持:意图识别 + 槽位提取(你要的指令核心)
- 训练:自有数据标注,一键训练
- JS:浏览器 / Node 都能跑
三、JS 运行框架(直接复制网址)
-
Transformers.js (官方,最稳,支持 WebGPU)https://huggingface.co/docs/transformers.js
- 用法:一行代码加载模型,直接推理
- 支持:量化模型、WebGPU 加速、浏览器缓存
-
ONNX Runtime Web (华为模型转 ONNX 后用)https://onnxruntime.ai/docs/api/js/index.html
- 适合:你自己训练的模型转 ONNX 后在 JS 跑
四、二次训练(从 0 / 微调,都支持)
-
方案 A:用Hugging Face Transformers 微调小模型https://huggingface.co/docs/transformers/training
- 数据:标注意图 + 实体(如 "打开收银机"→intent:open_cashier)
- 输出:微调后模型→转 ONNX→JS 运行
-
方案 B:用Hermes/Snips纯 JS 训练(最快)
- 无需 Python,直接在 JS 里用 JSON 数据训练
- 适合小步快跑,快速迭代指令
五、最简 JS 代码
html
预览
<script src="https://cdn.jsdelivr.net/npm/@huggingface/transformers@3.0.0"></script>
<script>
// 加载轻量中文BERT(INT8量化)
const classifier = await pipeline('text-classification', 'Xenova/chinese-bert-wwm-ext-quantized');
// 输入自然语言,输出结构化意图
const result = await classifier('打开收银系统');
console.log(result); // 输出:[{label: 'open_cashier', score: 0.98}]
</script>
六、快速建议
- 先用Hermes NLU(纯 JS,几 MB)快速跑通意图识别
- 再用Xenova/chinese-bert-wwm-ext-quantized提升精度
- 最后用Transformers.js+WebGPU 加速,支持更大模型
东方仙盟:拥抱知识开源,共筑数字新生态
在全球化与数字化浪潮中,东方仙盟始终秉持开放协作、知识共享的理念,积极拥抱开源技术与开放标准。我们相信,唯有打破技术壁垒、汇聚全球智慧,才能真正推动行业的可持续发展。
开源赋能中小商户:通过将前端异常检测、跨系统数据互联等核心能力开源化,东方仙盟为全球中小商户提供了低成本、高可靠的技术解决方案,让更多商家能够平等享受数字转型的红利。
共建行业标准:我们积极参与国际技术社区,与全球开发者、合作伙伴共同制定开放协议 与技术规范,推动跨境零售、文旅、餐饮等多业态的系统互联互通,构建更加公平、高效的数字生态。
知识普惠,共促发展:通过开源社区 、技术文档与培训体系,东方仙盟致力于将前沿技术转化为可落地的行业实践,赋能全球合作伙伴,共同培育创新人才,推动数字经济 的普惠式增长
阿雪技术观
在科技发展浪潮中,我们不妨积极投身技术共享。不满足于做受益者,更要主动担当贡献者。无论是分享代码、撰写技术博客,还是参与开源项目 维护改进,每一个微小举动都可能蕴含推动技术进步的巨大能量。东方仙盟是汇聚力量的天地,我们携手在此探索硅基 生命,为科技进步添砖加瓦。
Hey folks, in this wild tech - driven world, why not dive headfirst into the whole tech - sharing scene? Don't just be the one reaping all the benefits; step up and be a contributor too. Whether you're tossing out your code snippets , hammering out some tech blogs, or getting your hands dirty with maintaining and sprucing up open - source projects, every little thing you do might just end up being a massive force that pushes tech forward. And guess what? The Eastern FairyAlliance is this awesome place where we all come together. We're gonna team up and explore the whole silicon - based life thing, and in the process, we'll be fueling the growth of technology
