Ollama平替!LM Studio本地大模型调用实战

本文已收录在Github关注我,紧跟本系列专栏文章,咱们下篇再续!

  • 🚀 魔都架构师 | 全网30W技术追随者
  • 🔧 大厂分布式系统/数据中台实战专家
  • 🏆 主导交易系统百万级流量调优 & 车联网平台架构
  • 🧠 AIGC应用开发先行者 | 区块链落地实践者
  • 🌍 以技术驱动创新,我们的征途是改变世界!
  • 👉 实战干货:编程严选网

Ollama 平替!LM Studio本地大模型调用实战指南

0 前言

可像 Ollama 通过暴露本地端口,实现本地客户端调用。

1 选择模型

在 LM Studio 的 "开发者" 选项卡中选择模型:

2 端口暴露

设置暴露的端口(默认1234):

启用 CORS 后,可对接网页应用或其他客户端工具。

3 启动服务

点击状态选项卡:

控制台会显示运行日志和访问地址:

4 快速上手

4.1 快速ping

列出已加载并就绪的模型:

bash 复制代码
curl http://127.0.0.1:1234/v1/models/

这也是验证服务器是否可访问的一种有效方法!

4.2 聊天

这是一个类似调用OpenAI的操作,通过curl工具访问/v1/chat/completion端点:

  • 在Mac或Linux系统,可用任意终端运行
  • Windows系统用Git Bash
bash 复制代码
curl http://127.0.0.1:1234/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "llama-4-maverick-17b-128e-instruct",
    "messages": [ 
      { "role": "system", "content": "Always answer in rhymes." },
      { "role": "user", "content": "Introduce yourself." }
    ], 
    "temperature": 0.7, 
    "max_tokens": -1,
    "stream": true
  }'

该调用是"无状态的",即服务器不会保留对话历史记录。调用方有责任在每次调用时提供完整的对话历史记录。

流式传输 V.S 累积完整响应

注意"stream": true(流式传输:开启)参数:

  • true(开启)时,LM Studio会在预测出标记(token)的同时将其逐一流式返回
  • 如将此参数设置为false(关闭),在调用返回之前,完整的预测结果会被先累积起来。对于较长的内容生成或者运行速度较慢的模型,这可能需要花费一些时间!
相关推荐
神奇的程序员36 分钟前
从已损坏的备份中拯救数据
运维·后端·前端工程化
oden1 小时前
AI服务商切换太麻烦?一个AI Gateway搞定监控、缓存和故障转移(成本降40%)
后端·openai·api
亚马逊云开发者1 小时前
Q CLI 助力合合信息实现 Aurora 的升级运营
人工智能
全栈胖叔叔-瓜州2 小时前
关于llamasharp 大模型多轮对话,模型对话无法终止,或者输出角色标识User:,或者System等角色标识问题。
前端·人工智能
李慕婉学姐2 小时前
【开题答辩过程】以《基于Android的出租车运行监测系统设计与实现》为例,不知道这个选题怎么做的,不知道这个选题怎么开题答辩的可以进来看看
java·后端·vue
m0_740043732 小时前
SpringBoot05-配置文件-热加载/日志框架slf4j/接口文档工具Swagger/Knife4j
java·spring boot·后端·log4j
坚果派·白晓明3 小时前
AI驱动的命令行工具集x-cmd鸿蒙化适配后通过DevBox安装使用
人工智能·华为·harmonyos
GISer_Jing3 小时前
前端营销技术实战:数据+AI实战指南
前端·javascript·人工智能
Dekesas96953 小时前
【深度学习】基于Faster R-CNN的黄瓜幼苗智能识别与定位系统,农业AI新突破
人工智能·深度学习·r语言
招风的黑耳3 小时前
我用SpringBoot撸了一个智慧水务监控平台
java·spring boot·后端