Ollama 本地部署 体验 deepseek

下载安装ollama,选择模型 进行部署

bash 复制代码
# 管理员命令行 执行
ollama run deepseek-r1:70b

下载安装CherryStudio,本地对话UI 客户端

  • 在设置中 修改API地址,添加模型

测试

app="Ollama" && is_domain=false
Fofa检索到结果 ip和端口,用客户端调API测试

相关推荐
程序员鱼皮2 小时前
Cursor 网页版来了,这下拉屎时也能工作了
计算机·ai·程序员·开发·项目·编程经验
我是小哪吒2.02 小时前
书籍推荐-《对抗机器学习:攻击面、防御机制与人工智能中的学习理论》
人工智能·深度学习·学习·机器学习·ai·语言模型·大模型
小眼睛FPGA6 小时前
【RK3568+PG2L50H开发板实验例程】Linux部分/FPGA dma_memcpy_demo 读写案例
linux·运维·科技·ai·fpga开发·gpu算力
DeepSeek-大模型系统教程14 小时前
推荐 7 个本周 yyds 的 GitHub 项目。
人工智能·ai·语言模型·大模型·github·ai大模型·大模型学习
道可云19 小时前
道可云人工智能每日资讯|浦东启动人工智能创新应用竞赛
人工智能·百度·ar·xr·deepseek
Just_Paranoid21 小时前
华为云Flexus+DeepSeek征文|基于Dify构建音视频内容转录工作流
华为云·音视频·dify·maas·deepseek·flexusx
会飞的果粒橙1 天前
在Ubuntu24上安装ollama
ollama·deepseek
小明说Java1 天前
华为云Flexus+DeepSeek征文 | 基于华为云Flexus X实例部署Dify平台构建企业行政助手的可用性研究
华为云·maas·deepseek·flexus
master-dragon1 天前
spring-ai 工作流
人工智能·spring·ai