好奇,跟着网友们的操作试了一下
网上方案很多,主要参考的是这篇
DeepSeek 接入 PyCharm,轻松助力编程_pycharm deepseek-CSDN博客
方案是:PyCharm + CodeGPT插件 + DeepSeek-r1:1.5b
假设已经安装好了PyCharm
PyCharm: the Python IDE for data science and web development
https://blog.csdn.net/ytomc/category_11724865.html
- 下载Ollama
-
下载之后解压,将Ollama移动到合适的位置,比如Application里
-
运行Ollama
-
点击Next

- 点击Install,输入电脑密码

-
点击Finish
-
拉取deepseek-r1:在终端执行 ollama pull deepseek-r1:1.5b
1.5b是最小的版本,只是玩玩用这个就够了,CPU也可

在终端中输入ollama list,可以查询下载的模型
模型存储位置:
macOS: ~/.ollama/models
Linux: /usr/share/ollama/.ollama/models
Windows: C:\Users\<username>\.ollama\models
<username>根据实际替换
- 安装插件
打开PyCharm,找到Settings-Plugins,搜索"Proxy AI",然后安装"Proxy AI"
注意,原来好像是叫CodeGPT,但我搜不到,可能是改名了
- 配置
找到Settings-Tools-CodeGPT-Providers-Ollama (Local),Model选择刚拉取的deepseek模型
- 回到PyCharm的项目界面,右侧点CodeGPT开始聊天

对话框可以切模型
