DeepSeek应用——与PyCharm的配套使用

目录

一、配置方法

二、使用方法

三、注意事项

1、插件市场无continue插件

2、无结果返回,且在本地模型报错


记录自己学习应用DeepSeek的过程,使用的是自己电脑本地部署的私有化蒸馏模型......

(举一反三,这个不单单是可以用在DeepSeek,所有市面上的模型都可以模拟进行替换)

=======================================================================

这个是与pycharm的使用,比较简单,就一插件再修改下参数就可以。(感觉没啥太多用处,但聊胜于无)

一、配置方法

1、在pycharm中找到setting中的Plugins中搜索continue插件并安装。

2、修改continue中的配置文件

打开这里的齿轮按钮,进入配置文件的编辑。

3、将这里配置文件中的所有apiBase、model、apiKey根据自己情况进行填写替换。

我这里使用的是私有化部署的deepseek的蒸馏模型,所以这里的参数填写的就是,apiKey随意写:

复制代码
"apiBase": "http://127.0.0.1:1234/v1/"

"model": "deepseek-r1-distill-qwen-7b"

如果是使用公有的,就要填写对应的网址路径以及apiKey。

之后就可以使用了。

二、使用方法

1、直接询问,在红框里面进行询问即可

2、在代码中框选后进行询问,插件会调用模型,结合这部分代码对用户提问进行上下文分析并回答。

三、注意事项

1、插件市场无continue插件

需要注意的是pycharm的版本,比较早的版本没有continue这个插件。

2、无结果返回,且在本地模型报错

这个主要原因是有两个:

1)配置文件的token设置的比较小

在上面提到的continue的配置文件中,把completionOptions里面的maxTokens调大一些。

2)输入框中的文本内容过多

我自己分析是在输入框中之前的每一个提问都会作为历史信息输送到大模型中,即会进行多轮对话,因此导致tocken数目超过了上面设置的数值。

解决方案:

(1)把之前的聊天询问删除掉,也就是点击对于每一个框,点击垃圾桶图标。(有选择地清除历史记录,毕竟历史记录也会作为下一次的输入进行提问)

(2)开启一个新的会话(也就是清除所有历史信息)

点击上面的加号,开启新一轮会话

相关推荐
seaside20039 分钟前
大模型计算量、显存计算方法推导
人工智能·大模型
Tadas-Gao43 分钟前
深度学习与机器学习的知识路径:从必要基石到独立范式
人工智能·深度学习·机器学习·架构·大模型·llm
大江东去浪淘尽千古风流人物1 小时前
【VLN】VLN从理论到实践的完整指南VLN-Tutorial
机器人·大模型·概率论·端侧部署·巨身智能
WK-Q1 小时前
【论文解读】Transformers are RNNs
人工智能·语言模型·大模型·线性注意力
大江东去浪淘尽千古风流人物16 小时前
【LingBot-Depth】深度补全/单目深度估计算法/立体匹配算法
机器人·大模型·概率论·端侧部署·巨身智能
有时.不昰沉默20 小时前
【linux系统】安装并启动openclaw只需要两条命令
大模型·openclaw·clawbot
CoderJia程序员甲21 小时前
GitHub 热榜项目 - 日榜(2026-02-06)
人工智能·ai·大模型·github·ai教程
猿小羽1 天前
AIGC 应用工程师(3-5 年)面试题精讲:从基础到实战的系统备战清单
面试·大模型·aigc·agent·rag
DFCED1 天前
OpenClaw部署实战:5分钟搭建你的专属AI数字员工(附避坑指南)
人工智能·大模型·agent·openclaw
CBeann1 天前
企业级规则引擎落地实战:动态脚本引擎 QLExpress ,真香!
java·ai·大模型·规则引擎·qlexpress·大厂实战项目