前端开发同学轻松本地跑一个LLM,免费玩转大模型应用开发

相信前端的同学已经在研究基于LLM的应用开发了,但是现在网上的教程都是基于openAI的接口,要注册、付费,有没有免费的方便前端把玩的本地LLM呢?当然有。

作为中国人,我们首先把目光聚焦在支持中文的大模型上,然后在一堆开源模型中反复研究,最终,我们选定ChatGLM这个由清华和智普合作的中英双语大模型。除了支持中文外,另外一个重要的原因是,能够让前端的同学上手,而不需要搭建复杂的环境,在nodejs的基础上可以轻松跑起来。

在生态里面,chatglmjs可以帮助我们在nodejs、electron等环境下面轻松的跑一个本地的LLM,有了这个本地的LLM,那么我们在做大模型应用开发的时候,就不用再去连openai的接口,省下一笔不小的费用。

接下来我们看看怎么上手。

首先,安装chatglmjs:

css 复制代码
npm i chatglmjs

安装之前需要确保你的电脑上安装了cmake,需要支持c/c++的编译。

接下来,生成/下载大模型bin文件。

bash 复制代码
git clone --recursive https://github.com/li-plus/chatglm.cpp.git && cd chatglm.cpp
python3 -m pip install -U pip
python3 -m pip install torch tabulate tqdm transformers accelerate sentencepiece
python3 chatglm_cpp/convert.py -i THUDM/chatglm3-6b -t q4_0 -o chatglm3-6b.q4_0.bin

如果你是个懒人,可以直接点击这里下载已经生成好的bin文件

最后,进入nodejs的代码编写:

javascript 复制代码
const { chat, chatSync } = require('chatglmjs');
const { resolve } = require('path');

chat({
  model_bin_path: resolve(__dirname, '../llms/chatglm3-6b.q4_0.bin'),
  prompt: '你好',
  onmessage(msg) {
    process.stdout.write(msg);
  },
});

上面就是chatglmjs的最简单用法,当然,你还可以结合express创建一个服务,前端发一个ajax请求,由express调用上面这段代码来响应ajax,这样就可以在前端浏览器里面实现一个大模型应用了。

好了,今天就分享到这里,没必要为了凑字数搞一堆高深的概念,相信有想法的同学很快就能按照本文介绍的方法完成本地LLM的接入。

项目地址:github.com/tangshuang/...

记得给个star哦

相关推荐
用户新几秒前
V8引擎 精品漫游指南--Ignition篇(下 二) JavaScript 栈帧详解
前端·javascript
得闲喝茶9 分钟前
JavaScript在数据处理的应用
开发语言·前端·javascript·经验分享·笔记
feasibility.14 分钟前
多模态模型Qwen-3.5在Llama-Factory使用+llama.cpp量化导出+部署流程(含报错处理)
人工智能·llm·多模态·量化·llama.cpp·vlm·llama-factory
sinat_2869451921 分钟前
llm wiki
人工智能·算法·chatgpt
一个处女座的程序猿35 分钟前
MultiAgent之OpenClaw:QuantClaw的简介、安装和使用方法、案例应用之详细攻略
llm·openclaw·quantclaw
费曼学习法1 小时前
React Hooks 源码级揭秘:为什么必须按顺序调用?
javascript·react.js
Lazy_zheng1 小时前
LangChain + RAG 入门实战:从模型调用到完整 RAG 流水线
langchain·llm·agent
小马过河R1 小时前
从官方定义读懂智能体的时代分量
人工智能·语言模型·大模型·llm·agent·ai编程·多模态
之歆1 小时前
DAY_20JavaScript 条件语句与循环结构深度学习(二)
前端·javascript
布局呆星2 小时前
Vue3 路由守卫详解:全局守卫、路由独享守卫、组件内守卫
前端·javascript·vue.js