ollama

Ki13812 天前
linux·树莓派·ollama
将树莓派5当做Ollama服务器,C#调用generate的API的示例其实完全没这个必要,性能用脚后跟想都会很差。但基于上一篇文章的成果,来都来了就先简单试试吧。先来看看这个拼夕夕上五百多块钱能达到的效果:
Learn-Share_HY2 天前
linux·人工智能·python·ubuntu·flask·ollama·ngrok
[Python]如何利用Flask搭建一個Web服務器,並透過Ngrok訪問來實現LINE Bot功能?AI ChatBot I How to Build AI LINE Bot with Ollama, Flask and Ngrok?
whltaoin4 天前
ubuntu·阿里云·大模型·ollama
《2核2G阿里云神操作!Ubuntu+Ollama低成本部署Deepseek模型实战》简介: “本文为AI开发者揭秘如何在阿里云2核2G轻量级ECS服务器上,通过Ubuntu系统与Ollama框架实现Deepseek模型的高效部署。无需昂贵硬件,手把手教程涵盖环境配置、资源优化及避坑指南,助力初学者用极低成本在云端跑通行业领先的大语言模型,解锁轻量化服务器运行AI任务的无限可能!”
乐予吕5 天前
openai·ollama·mcp
MCP:AI 时代的“USB-C”,解锁模型上下文新范式MCP(Model Context Protocol,模型上下文协议)是一个开放协议,它标准化了应用程序向大语言模型(LLM)提供上下文的方式。可以将 MCP 类比为 AI 应用的 USB-C 端口。就像 USB-C 提供了一种标准化的方式来连接不同设备和配件一样,MCP 也为 AI 模型提供了一种标准化的方式,使其能够与不同的数据源和工具进行交互。这样,开发者可以更轻松地将 MCP 集成到各类 AI 解决方案中,提高模型的上下文获取能力,并增强其对外部数据的适配性。
tinghe176 天前
dify·本地部署·ollama·deepseek
本地部署Dify 添加Ollama模型DeepSeek1、准备工作本地ollama 加载DeepSeek。安装并登录Dify。2、添加Ollama模型服务商
小小工匠9 天前
ollama·离线部署·qwen2.5-coder
LLM - CentOS上离线部署Ollama+Qwen2.5-coder模型完全指南https://github.com/ollama/ollama/releasesOllama 对硬件的基础要求较低,但不同规模的模型对资源的需求不同 .可参考如下配置:
TitusTong14 天前
前端·ollama·deepseek
使用 <think> 标签解析 DeepSeek 模型的推理过程在本地部署 DeepSeek 模型并调用其推理能力时,模型的推理过程通常以流的形式返回。为了清晰地记录和展示这些推理过程,我们可以使用 parse-reasoning 这个 npm 包来解析返回的内容,并将推理过程用 <think> 标签包裹。以下是具体的实现方法。
山巅14 天前
大模型·mac·ollama·deepseek
Mac下Ollama安装全攻略:开启本地大模型之旅Ollama 是一个开源的大语言模型平台,允许用户在本地环境中便捷地运行、创建和共享大型语言模型。它提供了丰富的功能和特性,让用户在自己的计算机上就能轻松部署和运行大型语言模型,无需依赖云服务 。
星沉大海@T14 天前
ollama·迁移指南
关于修改 Ollama 及其模型默认路径、迁移已安装的 Ollama 程序和模型以及重启 Ollama 的操作指南以下是关于修改 Ollama 及其模型默认路径、迁移已安装的 Ollama 程序和模型以及重启 Ollama 的操作指南,以问答格式呈现,并将涉及命令操作的部分使用代码块按执行顺序和步骤形式展示:
前端梭哈攻城狮15 天前
aigc·ollama·deepseek
ollama+dify本地化部署【菜鸟教程】dify官网:dify.ai/dify官网教程:docs.dify.ai/getting-sta…参考文档【如何集成Ollama】:docs.dify.ai/development…
guyoung15 天前
rust·ollama·deepseek
DeepSeek轻量级本地化部署工具AIMatrices更新——新增OllamaApi接口调用,Python及Html运行等功能AIMatrices DeepSeek 是一款基于 AI 应用快速构建平台 AIMatrices 开发的开源 DeepSeek 轻量级本地化部署工具,支持本地模型、远程 API 灵活切换,旨在为用户提供高效、灵活且低成本的 DeepSeek 大模型部署解决方案。
sometime`something16 天前
dify·ollama
ollama不安装到c盘,安装到其他盘ollama 安装包默认安装到c盘,安装程序并没有提供选择文件夹安装功能,本来c盘就快满了,下几个模型c盘都快爆了,如何将ollma安装到其他盘呢?
小生测试17 天前
ollama·openwebui·ollama本地部署大模型
Ollama+OpenWebUI本地部署大模型Ollama是一个开源项目,用于在本地计算机上运行大型语言模型(LLMs)的工具,它的底层是使用Docker,所以支持类似Docker的构建方式,大模型就是它的镜像。它支持多种模型格式,包括但不限于GGUF,允许用户在没有高性能GPU或不希望使用云服务的情况下,利用个人计算机的资源来执行复杂的语言任务。
小G同学19 天前
golang·vue·gin·ollama
SuiGo智能博客系统软件架构说明 本项目主要就是前后端分离。前后端启动后,进入页面结语:Gitee地址: https://gitee.com/GG20190213/sui-go.git
o0o_-_21 天前
langchain·ollama·llama.cpp·deepseek
【langchain/入门】使用langchain调用本地部署的大模型(以llama.cpp以及ollama为例)
dessler22 天前
linux·运维·大模型·ollama·deepseek
DeepSeek-Open WebUI部署1.DeepSeek部署-Win版本2.DeepSeek部署-Linux版本3.DeepSeek部署-一键部署(Linux版本)
吾与谁归in22 天前
c#·ollama·deepseek·本地模型
【C#实现手写Ollama服务交互,实现本地模型对话】最近使用C#调用OllamaSharpe库实现Ollama本地对话,然后思考着能否自己实现这个功能。经过一番查找,和查看OllamaSharpe源码发现确实可以。其实就是开启Ollama服务后,发送HTTP请求,获取返回结果以及一些数据处理。
訾博ZiBo22 天前
人工智能·ollama
Ollama 常用命令Ollama 是一个用于管理和运行大型语言模型的工具,提供了丰富的命令行接口(CLI),方便用户在本地环境中轻松地部署和运行各种模型。以下是一些 Ollama 的常用命令及其用法:
闫利朋22 天前
知识库·ollama·ragflow·deekseek
ubuntu22.04安装RAGFlow配合DeepSeek搭建本地知识库RAGFlow 是一个基于对文档的深入理解的开源 RAG(检索增强生成)引擎。当与 LLM 集成时,它能够提供真实的问答功能,并以来自各种复杂格式数据的有根据的引用为后盾。
曲幽22 天前
人工智能·ai·语言模型·自然语言处理·ollama·deepseek
DeepSeek大语言模型下几个常用术语昨天刷B站看到复旦赵斌老师说的一句话“科幻电影里在人脑中植入芯片或许在当下无法实现,但当下可以借助AI人工智能实现人类第二脑”(大概是这个意思)