一、在线API服务(推荐)
1. DeepSeek API(完全免费)
javascript
// 使用官方API
const response = await fetch('https://api.deepseek.com/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': `Bearer your-api-key`,
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'deepseek-chat',
messages: [{ role: 'user', content: '你的问题' }]
})
});
- 优势:128K上下文、文件上传、联网搜索、完全免费
- 获取方式:官网申请API key
2. 其他免费选项
- Ollama + Open WebUI:本地部署
- Groq Cloud:部分免费额度
- Together.ai:有免费额度
二、本地部署方案
1. 使用Ollama(最简单)
bash
# 安装Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 下载模型
ollama pull llama3.2
ollama pull qwen2.5:7b
# 运行
ollama run llama3.2
2. 通过API调用本地模型
javascript
// 连接到本地Ollama
const response = await fetch('http://localhost:11434/api/generate', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
model: 'llama3.2',
prompt: '你的问题',
stream: false
})
});
三、集成到Cursor的具体方法
方法1:配置Cursor使用自定义模型
- 在Cursor中按
Cmd/Ctrl + Shift + P - 搜索"Change Model"
- 选择"Configure Custom Model"
- 填入你的API端点
方法2:使用Cursor API模式
javascript
// 在你的项目中创建AI助手
import { AI } from '@cursor/ai';
const ai = new AI({
provider: 'custom',
endpoint: 'http://localhost:11434/v1',
apiKey: 'your-key'
});
四、推荐组合方案
初学者方案
DeepSeek API(在线) + Cursor内置AI
进阶方案
本地:Ollama + DeepSeek-Coder模型
在线:DeepSeek API(备用)
开发方案
- 本地运行Ollama服务
- 部署轻量级模型(Qwen2.5-Coder、CodeLlama)
- 配置Cursor使用本地端点
五、注意事项
-
免费限制:
- DeepSeek:完全免费,但需注意调用频率
- 本地部署:需要一定的硬件资源(至少8GB RAM)
-
性能考虑:
- 在线API:响应快,依赖网络
- 本地模型:隐私好,但推理速度较慢
-
模型选择:
- 代码生成:DeepSeek-Coder、CodeLlama
- 通用对话:Qwen2.5、Llama3
六、快速开始步骤
- 注册DeepSeek:获取免费API key
- 测试API:先用Postman测试连通性
- 配置Cursor:设置自定义模型端点
- 本地备选:安装Ollama作为备用