重磅!Ollama发布UI界面,告别命令窗口!

Ollama 终于提供 UI 界面了,再也不用在命令窗口中使用了,如下图所示:

什么是Ollama?

Ollama 是一个开源的大型语言模型服务工具。它的主要作用是帮助用户快速在本地运行大模型,简化了在 Docker 容器内部署和管理大语言模型(LLM)的过程。

PS:Ollama 就是大模型届的"Docker",使用它可以低成本使用大模型(无需调用费用),并且因为是本地部署的大模型,所以不会存在数据隐私问题

优点分析

Ollama 优点如下:

  • 易于使用:提供了简单的 API 和类似 ChatGPT 的聊天界面,即使是没有经验的用户也能轻松上手,无需开发即可直接与模型进行交互。
  • 轻量级:代码简洁,运行时占用资源少,能够在本地高效运行,不需要大量的计算资源。
  • 可扩展:支持多种模型架构,并易于添加新模型或更新现有模型,还支持热加载模型文件,无需重新启动即可切换不同的模型,具有较高的灵活性。
  • 预构建模型库:包含一系列预先训练好的大型语言模型,可用于各种任务,如文本生成、翻译、问答等,方便在本地运行大型语言模型。

Ollama 官网:ollama.com/

下载并安装Ollama

下载地址:ollama.com/

下载完成之后,双击安装包,一直下一步安装完成即可。

安装大语言模型

支持大模型列表:ollama.com/search

安装并运行 DeepSeek 大模型的命令如下:

ollama run deepseek

等待一段时间 DeepSeek 就安装并启动了。

Ollama调用

Ollama 调用也很简单,通过以下三步就能实现:

  1. 添加本地大模型依赖
xml 复制代码
<dependency>
  <groupId>org.springframework.ai</groupId>
  <artifactId>spring-ai-starter-model-ollama</artifactId>
  <version>1.0.0</version>
</dependency>
  1. 配置本地大模型
yaml 复制代码
spring:
  ai:
    ollama:
      base-url: http://localhost:11434
      chat:
        model: deepseek-r1:1.5b
  1. 编写代码进行调用
typescript 复制代码
@Autowired
private OllamaChatModel ollamaChatModel;

@GetMapping("/chat")
public String simpleChat(String msg) {
return ollamaChatModel.call(msg);
}

小结

Ollama 作为使用最简单的本地大模型部署工具,因为使用比较简单,所以行业使用率也很高,但你知道 Ollama 有哪些不足吗?欢迎评论区留言讨论。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

Github

相关推荐
大模型教程10 小时前
8GB显存笔记本能跑多大AI模型?这个计算公式90%的人都不知道!
程序员·llm·agent
大模型教程10 小时前
大模型应用开发到底有多赚钱?看完这5个真实案例,你会惊掉下巴
程序员·llm·agent
AI大模型10 小时前
别乱装!Ollama×DeepSeek×AnythingLLM一键本地AI知识库,快人10倍
程序员·llm·agent
聚客AI12 小时前
🌟大模型为什么产生幻觉?预训练到推理的漏洞全揭秘
人工智能·llm·掘金·日新计划
舒一笑13 小时前
Saga分布式事务框架执行逻辑
后端·程序员·设计
xiezhr14 小时前
近期提高幸福感的工具分享
程序员
爱海贼的无处不在15 小时前
一个需求竟然要开14个会:程序员的日常到底有多“会”?
后端·程序员
白帽黑客沐瑶17 小时前
【网络安全就业】信息安全专业的就业前景(非常详细)零基础入门到精通,收藏这篇就够了
网络·安全·web安全·计算机·程序员·编程·网络安全就业
SimonKing18 小时前
【工具库推荐】Java开发者必备:6款HTTP客户端神器,从经典到未来
java·后端·程序员
302AI18 小时前
302.AI 实战指南丨将任意 API 转为 MCP Server,释放 AI 生产力
llm·api·mcp