【AI】DeepSeek本地部署,Ollama + vscode + Continue,实现本地运行LLM大模型,以及代码自动补全

文章目录

相关链接

Ollama
Ollama Models
Ollama相关api
VsCode下载

Ollama

安装ollama

Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。

Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。

Ollama 提供对模型量化的支持,可以显著降低显存要求,使得在普通家用计算机上运行大型模型成为可能。

配置ollama models下载地址

默认会下载到系统盘

下载Model

ollama官网的models中搜索,只要在上面能搜到的Model都能通过命令下载到本地

bash 复制代码
# 下载命令和运行命令一样
ollama run xxx



Success! 默认端口号为11434
http://localhost:11434
如果要更改端口号,到环境变量中添加或更改OLLAMA_HOST

也可以通过接口访调用,以下为相关api👇
https://ollama.cadn.net.cn/api.html

Continue接入VsCode

安装continue插件

添加模型

打开配置文件

或者直接在设置中配置

配置项

配置models,如果有代码补全需求,添加tabAutocompleteModel配置

预告:RAG,知识库



python 复制代码
print("有一种英雄主义就是当我们看清社会的真相以后,依然选择要热爱生活,珍惜生命。")
print("不让别人烦恼是慈悲,不让自己烦恼是智慧")
相关推荐
Codebee19 分钟前
SkillFlow:回归本质的AI能力流程管控
人工智能
巫山老妖36 分钟前
2026 年 AI 趋势深度研究报告
人工智能
CodeLove·逻辑情感实验室1 小时前
深度解析:当 NLP 试图解构爱情——情感计算(Affective Computing)的伦理边界与技术瓶颈
人工智能·深度学习·自然语言处理·赛朋克
少林码僧1 小时前
2.9 字段分箱技术详解:连续变量离散化,提升模型效果的关键步骤
人工智能·ai·数据分析·大模型
互联网工匠1 小时前
从冯·诺依曼架构看CPU和GPU计算的区别
人工智能·gpu算力
爱笑的眼睛111 小时前
超越可视化:降维算法组件的深度解析与工程实践
java·人工智能·python·ai
凉、介1 小时前
深入 QEMU Guest Agent:虚拟机内外通信的隐形纽带
c语言·笔记·学习·嵌入式·虚拟化
崇山峻岭之间1 小时前
Matlab学习记录31
开发语言·学习·matlab
GISer_Jing2 小时前
AI Agent 目标设定与异常处理
人工智能·设计模式·aigc
石像鬼₧魂石2 小时前
22端口(OpenSSH 4.7p1)渗透测试完整复习流程(含实战排错)
大数据·网络·学习·安全·ubuntu