无公网IP 外网访问本地部署 llamafile 大语言模型

llamafile 是一种AI大模型部署(或者说运行)的方案,它的特点就是可以将模型和运行环境打包成一个独立的可执行文件,这样就简化了部署流程。用户只需要下载并执行该文件,无需安装运行环境或依赖库,这大大提高了使用大型语言模型的便捷性。

本文将详细的介绍如何在 Windows 系统电脑端下载运行llamafile ,并且结合路由侠内网穿透实现外网访问本地的llamafile 。

第一步,下载 llamafile

1,先下载llamafile,下载包:https://www.modelscope.cn/api/v1/models/bingal/llamafile-models/repo?Revision=master\&FilePath=llamafile-0.6.2.win.zip

2,下载后,需要解压文件,解压后可以看到一个llamafile.exe文件,不用点击这个文件。

3,进入这个链接:魔搭社区,去下载对应的大语言模型,本文以下载的是第一个模型为例。

4,下载好后,把下载的大语言模型和上面我们下载的llamafile.exe文件放在一起。

5,在llamafile目录下,点击左上角文件,直接打开powershell命令窗口。

6,执行输入下面命令运行llamafile。

复制代码
.\llamafile-0.6.2.exe -m .\Qwen-7B-Chat-q4_0.llamafile -ngl 9999 --port 8080 --host 0.0.0.0

.\llamafile-0.6.2.exe 表示运行llamafile;

.\Qwen-7B-Chat-q4_0.llamafile表示运行自己下载的大语言模型;

-ngl 999 表示调用GPU显卡运行;

8080 是web 界面访问端口,可以自己修改;

后面-host 默认即可。

7,打开浏览器,输入本地访问地址,就能看到 llama 的web ui 界面,这样表示启动就成功了

第二步,如何在外网访问本地局域网的llamafile

在内网的电脑上安装路由侠,点此下载

1,下载安装完成后,打开路由侠界面,点击【内网映射】。

2,点击【添加映射】。

3,选择【原生端口】。

4,在内网端口里填写默认端口 8080 后点击【创建】按钮,如下图。

5,创建好后,就可以看到一条映射的公网地址,鼠标右键点击【复制地址】。

6,在外网的浏览器的地址栏输入复制的外网地址就可以访问llamafile了。

相关推荐
vlln1 天前
【论文速读】递归语言模型 (Recursive Language Models): 将上下文作为环境的推理范式
人工智能·语言模型·自然语言处理
一轮弯弯的明月1 天前
TCP传输大致过程、流量控制与拥塞控制
网络·tcp/ip·计算机网络·学习心得
皇帝要考研1 天前
【ISO 13400-2:2019】核心配置项
网络·网络协议
JoySSLLian1 天前
IP SSL证书:一键解锁IP通信安全,高效抵御网络威胁!
网络·人工智能·网络协议·tcp/ip·ssl
云小逸1 天前
【网络通信】DNS、SNMP、DHCP 等 UDP 服务解析
网络·网络协议·udp
半壶清水1 天前
[软考网规考点笔记]-操作系统核心知识及历年真题解析
网络·网络协议·算法
玄同7651 天前
告别 AgentExecutor:LangChain v1.0+ Agent 模块深度迁移指南与实战全解析
人工智能·语言模型·自然语言处理·langchain·nlp·agent·智能体
方芯半导体1 天前
EtherCAT “通信 + 控制“ 的全国产化控制方案,ESC芯片(FCE1323)与国产MCU芯片功能板解析
xml·网络·单片机·嵌入式硬件·网络协议·机器人·自动化
阿杰学AI1 天前
AI核心知识74——大语言模型之ReAct 范式(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·agent·react范式
2501_948120151 天前
大语言模型与爬虫技术融合的智能数据采集系统
人工智能·爬虫·语言模型