DeepSeek应用——与PyCharm的配套使用

目录

一、配置方法

二、使用方法

三、注意事项

1、插件市场无continue插件

2、无结果返回,且在本地模型报错


记录自己学习应用DeepSeek的过程,使用的是自己电脑本地部署的私有化蒸馏模型......

(举一反三,这个不单单是可以用在DeepSeek,所有市面上的模型都可以模拟进行替换)

=======================================================================

这个是与pycharm的使用,比较简单,就一插件再修改下参数就可以。(感觉没啥太多用处,但聊胜于无)

一、配置方法

1、在pycharm中找到setting中的Plugins中搜索continue插件并安装。

2、修改continue中的配置文件

打开这里的齿轮按钮,进入配置文件的编辑。

3、将这里配置文件中的所有apiBase、model、apiKey根据自己情况进行填写替换。

我这里使用的是私有化部署的deepseek的蒸馏模型,所以这里的参数填写的就是,apiKey随意写:

复制代码
"apiBase": "http://127.0.0.1:1234/v1/"

"model": "deepseek-r1-distill-qwen-7b"

如果是使用公有的,就要填写对应的网址路径以及apiKey。

之后就可以使用了。

二、使用方法

1、直接询问,在红框里面进行询问即可

2、在代码中框选后进行询问,插件会调用模型,结合这部分代码对用户提问进行上下文分析并回答。

三、注意事项

1、插件市场无continue插件

需要注意的是pycharm的版本,比较早的版本没有continue这个插件。

2、无结果返回,且在本地模型报错

这个主要原因是有两个:

1)配置文件的token设置的比较小

在上面提到的continue的配置文件中,把completionOptions里面的maxTokens调大一些。

2)输入框中的文本内容过多

我自己分析是在输入框中之前的每一个提问都会作为历史信息输送到大模型中,即会进行多轮对话,因此导致tocken数目超过了上面设置的数值。

解决方案:

(1)把之前的聊天询问删除掉,也就是点击对于每一个框,点击垃圾桶图标。(有选择地清除历史记录,毕竟历史记录也会作为下一次的输入进行提问)

(2)开启一个新的会话(也就是清除所有历史信息)

点击上面的加号,开启新一轮会话

相关推荐
audyxiao00112 小时前
计算机视觉顶刊《International Journal of Computer Vision》2025年5月前沿热点可视化分析
图像处理·人工智能·opencv·目标检测·计算机视觉·大模型·视觉检测
CM莫问1 天前
<论文>(微软)WINA:用于加速大语言模型推理的权重感知神经元激活
人工智能·算法·语言模型·自然语言处理·大模型·推理加速
大模型铲屎官1 天前
【深度学习-Day 23】框架实战:模型训练与评估核心环节详解 (MNIST实战)
人工智能·pytorch·python·深度学习·大模型·llm·mnist
一 铭2 天前
Github Copilot新特性:Copilot Spaces-成为某个主题的专家
人工智能·大模型·llm
致Great2 天前
Gemini开源项目DeepResearch:基于LangGraph的智能研究代理技术原理与实现
大模型
般若Neo3 天前
大模型高效提示词Prompt编写指南
大模型·prompt·提示词
小阿鑫3 天前
记录第一次公司内部分享:如何基于大模型搭建企业+AI业务
大模型·llm·agent·大模型落地·ai落地·mcp·mcpserver
Eastmount3 天前
[论文阅读] (38)基于大模型的威胁情报分析与知识图谱构建论文总结(读书笔记)
论文阅读·人工智能·大模型·知识图谱·威胁情报