ollama

Heartsuit2 小时前
人工智能·dify·ollama·qwen2.5·ai搜索引擎·tavily search·工作流编排
LLM大语言模型私有化部署-使用Dify的工作流编排打造专属AI搜索引擎上一篇文章介绍了如何使用 Ollama 和 Dify 搭建个人 AI 助手。首先通过 Ollama 私有化部署了 Qwen2.5 (7B) 模型,然后使用 Docker Compose 一键部署了 Dify 社区版平台。在 Dify 平台上,通过普通编排的方式,创建了基于 Qwen2.5 模型的聊天助手,并添加了个人知识库作为上下文,实现了真正的个人助手功能。
Engineer-Yao11 小时前
docker·大模型·win10·wsl·ollama·本地大模型·ragflow
【win10+RAGFlow+Ollama】搭建本地大模型助手(教程+源码)RAGFlow是一个基于对文档深入理解的开源RAG(Retrieval-augmented Generation,检索增强生成)引擎。
handsomelky3 天前
人工智能·语言模型·自然语言处理·chatgpt·llama·ollama·gemma
ollama本地部署大语言模型记录最近突然对大语言模型感兴趣同时在平时的一些线下断网的CTF比赛中,大语言模型也可以作为一个能对话交互的高级知识检索库
AI程序猿人17 天前
人工智能·自然语言处理·llm·prompt·知识图谱·ollama·大模型应用
(译)提示词工程指南:如何写出让AI更听话的提示词(Prompt)?| 附完整示例和小学生版本LLM Prompt Tuning Playbook来源:https://github.com/varungodbole/prompt-tuning-playbook/blob/main/README.md
AI小白龙*1 个月前
人工智能·windows·自然语言处理·llm·llama·ai大模型·ollama
Windows环境下搭建Qwen开发环境【官方指引】https://qwen.readthedocs.io/en/latest/【ModelScope训练】https://modelscope.cn/docs/%E4%BD%BF%E7%94%A8Tuners
lpcarl1 个月前
ubuntu·gradio·ollama
Ubuntu安装ollama,并运行ollama和通义千问,使用gradio做界面访问网站连接,选中Linux,然后拷贝命令打开cmd (使用快捷键 Ctrl+shift+T),并切换到 管理员模式 接着打入粘贴上面的命令,回车后自动安装
DbWong_09181 个月前
python·oracle·langchain·ollama
langchain_chatchat+ollama部署本地知识库,联网查询以及对数据库(Oracle)数据进行查询涉及的内容其实挺多的,所以尽量减少篇幅部署ollama,并拉取qwen2.5:14b和quentinz/bge-large-zh-v1.5:latest 部署langchain_chatchat 部署oracle数据库
冷小鱼1 个月前
bug·llama·ollama
【BUG】Error: llama runner process has terminated: exit status 127本地私有化部署大模型,主流的工具是 Ollama。 使用以下指令部署:但是笔者本地报错了,查下gitbub 手动下载:
小G同学1 个月前
vue·ollama
vue通过ollama接口调用开源模型先展示下最终效果:第一步:先安装ollama,并配置对应的开源大模型。安装步骤可以查看上一篇博客:
水中加点糖1 个月前
java·文生图·智能对话·comfyui·ollama·spring ai·离线大模型
使用SpringAI快速实现离线/本地大模型应用大模型(LLM),Large Language Model作为当前比较热门的技术,最近在年在各行各业中都得到了广泛的应用。
waiting不是违停2 个月前
langchain·llm·ollama
LangChain Ollama实战文献检索助手(二)少样本提示FewShotPromptTemplate示例选择器本期是用样例来提示大模型生成我们想要的答案。即在输入中给定提示的样例,以及提示模板,然后匹配较相关的样例进行文献综述。
Agile.Zhou2 个月前
llm·ollama
给 Ollama 穿上 GPT 的外衣上一篇我们介绍了如何在本地部署 ollama 运行 llama3 大模型。过程是相当简单的。但是现在给大模型交流只能在命令行窗口进行。这样的话就只能你自己玩了。独乐乐不如众乐乐嘛。我们接下来说一下如何部署 open-webui 给 ollama 加一个 webui,这样用户就可以通过浏览器访问我们的本地大模型了,体验非常类似 chatGPT。
Agile.Zhou2 个月前
llm·ollama
使用 ollama 在本地试玩 LLM在 chatGPT 的推动下。LLM 简直火出天际,各行各业都在蹭。听说最近 meta 开源的 llama3 模型可以轻松在普通 PC 上运行,这让我也忍不住来蹭一层。以下是使用 ollama 试玩 llama3 的一些记录。
warrah2 个月前
oneapi·fastgpt·ollama
fastGpt参考本地部署FastGPT使用在线大语言模型在rockylinux中安装的,ollama由1.5G,还是比较大,所有采用在windows下下载,然后安装的方式,linux安装
仙魁XAN2 个月前
api·qwen·dify·1024程序员节·ollama
AGI 之 【Dify】 之 Dify 在 Windows 端本地部署调用 Ollama 本地下载的大模型,实现 API 形式进行聊天对话目录AGI 之 【Dify】 之 Dify 在 Windows 端本地部署调用 Ollama 本地下载的大模型,实现 API 形式进行聊天对话
beyond阿亮2 个月前
ai·大模型·ollama
Ollama前端页面调用大模型 知识问答 模型切换Ollama提供命令行的方式使用,还提供了API接口调用的方式,但是没有界面操作那么直观,那么有人就基于ollama提供的接口开发了一套页面,页面的风格和chatgpt和类似;下面介绍 如何比页面运行起来,并调用大模型问答。
乐渔leyu2 个月前
ollama·deepin v23
deepin V23 部署Ollama系统:Deepin V23 1.Ollama简单介绍 Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。 Ollama仓库地址:https://github.com/ollama/ollama Ollama官方下载地址:https://ollama.com/download 2.安装Ollama 在Deepin V23中打开一个终端,切换至root用户.执行如下命令. #cd /usr/local (将ollama安装在/usr/local中) #curl -fsSL
一路追寻2 个月前
llm·openai·agent·swarm·ollama·qwen2.5
使用Ollama测试OpenAI的Swarm多智能体编排框架https://ollama.com/Requires Python 3.10+https://github.com/openai/swarm
wxl7812273 个月前
python·code·ollama·本地大模型·interperter·代码解释器
如何让ollama本地模型使用code-interpreter(代码解释器)?代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。
GuokLiu3 个月前
langchain·pdf·rag·ollama
240922-chromadb的基本使用ChromaDB 是一个较新的开源向量数据库,专为高效的嵌入存储和检索而设计。与其他向量数据库相比,ChromaDB 更加专注于轻量化、简单性和与机器学习模型的无缝集成。它的核心目标是帮助开发者轻松管理和使用高维嵌入向量,特别是与生成式 AI(如 GPT 系列)集成。