window.ai+transformers.js - 在本地跑AI大模型

之前介绍了如何在控制台使用window.ai的功能,多少体验上不太好。这次结合transformers.js来看看最新的打开方式。

transformers.js 是一个 JavaScript 库,直接在浏览器运行,不需要服务器。支持如下功能:

  • 📝自然语言处理:文本分类、命名实体识别、问题回答、语言建模、总结、翻译、多项选择和文本生成。
  • 🖼️计算机视觉:图像分类、对象检测和分割。
  • 🗣️音频:自动语音识别和音频分类。
  • 🐙多模态:零拍摄图像分类。

最近它也支持谷歌内置的模型,具体可以参考:github.com/xenova/tran...

在这里,我们直接来看看它是如何跟谷歌内置模型搭配使用的。先来体验一下案例。

Demo案例

结合transformers.js使用,速度还是很快的。

windowai.miniwa.site/

主要包含以下功能

开启浏览器支持window.ai可以参考这个文章:juejin.cn/post/738730...

模型相关的实现

首先需要加载模型,transformers.js提供了简单的api来实现模型加载

arduino 复制代码
pipeline('text-generation', 'Xenova/gemini-nano');

作者使用的是一个单例的模式:

csharp 复制代码
class TextGenerationPipeline {
    static model_id = 'Xenova/gemini-nano';
    static instance = null;

    static async getInstance() {
        this.instance ??= pipeline('text-generation', this.model_id);
        return this.instance;
    }
}

主要流程是加载和通信,考虑到ai交互可能是一个耗时的操作。作者使用了worker处理。以下是worker的主要代码:

php 复制代码
import {
    pipeline,
    InterruptableStoppingCriteria,
    RawTextStreamer,
} from '@xenova/transformers';

async function generate(messages) {
    const generator = await TextGenerationPipeline.getInstance();

    const cb = (output) => {
        self.postMessage({
            status: 'update',
            output,
        });
    }

    const streamer = new RawTextStreamer(cb);
    self.postMessage({ status: 'start' });

    const output = await generator(messages, {
        streamer,
        stopping_criteria,

        // Greedy search
        top_k: 1,
        temperature: 0,
    })

    if (output[0].generated_text.length === 0) {
        // No response was generated
        self.postMessage({
            status: 'update',
            output: ' ', tps: null, numTokens: 0,
        });
    }

    // Send the output back to the main thread
    self.postMessage({
        status: 'complete',
        output: output[0].generated_text,
    });
}

async function load() {
    self.postMessage({
        status: 'loading',
        data: '正在加载模型...'
    });

    // 获取模型实例
    const generator = await TextGenerationPipeline.getInstance(x => {
        self.postMessage(x);
    });

    self.postMessage({
        status: 'loading',
        data: '正在加载模型...'
    });

    // 检测是否已经ready
    await generator('1+1=');
    self.postMessage({ status: 'ready' });
}
// 监听消息
self.addEventListener('message', async (e) => {
    const { type, data } = e.data;

    switch (type) {
        case 'load':
            load().catch((e) => {
                self.postMessage({
                    status: 'error',
                    data: e,
                });
            });
            break;

        case 'generate':
            stopping_criteria.reset();
            generate(data);
            break;

        case 'interrupt':
            stopping_criteria.interrupt();
            break;

        case 'reset':
            stopping_criteria.reset();
            break;
    }
});

可以看到这里主要是通过监听message消息跟外界交互。

  • self,类似于主线程中的 window 对象,指向woker自身;
  • 收到load指令时,启动模型加载,并内部测试
  • 收到generate指令时,调用模型的generator方法获取模型结果,并通过postMessage传递出去
相关推荐
朱昆鹏6 分钟前
开源 Claude Code + Codex + 面板 的未来vibecoding平台
前端·后端·github
lyrieek11 分钟前
pgadmin的导出图实现,还在搞先美容后拍照再恢复?
前端
永远是我的最爱16 分钟前
基于.NET的小小便利店前台收银系统
前端·sqlserver·.net·visual studio
从文处安17 分钟前
「九九八十一难」第一难:前端数据mock指南(TS + VUE)
前端
小程故事多_8017 分钟前
Agent Infra核心技术解析:Sandbox sandbox技术原理、选型逻辑与主流方案全景
java·开发语言·人工智能·aigc
Zhencode37 分钟前
Vue3 响应式依赖收集与更新之effect
前端·vue.js
x-cmd41 分钟前
[x-cmd] jsoup 1.22.1 版本发布,引入 re2j 引擎,让 HTML 解析更安全高效
前端·安全·html·x-cmd·jsoup
天下代码客1 小时前
使用electronc框架调用dll动态链接库流程和避坑
前端·javascript·vue.js·electron·node.js
weixin199701080161 小时前
【性能提升300%】仿1688首页的Webpack优化全记录
前端·webpack·node.js
冰暮流星2 小时前
javascript之数组
java·前端·javascript