DeepSeek应用——与PyCharm的配套使用

目录

一、配置方法

二、使用方法

三、注意事项

1、插件市场无continue插件

2、无结果返回,且在本地模型报错


记录自己学习应用DeepSeek的过程,使用的是自己电脑本地部署的私有化蒸馏模型......

(举一反三,这个不单单是可以用在DeepSeek,所有市面上的模型都可以模拟进行替换)

=======================================================================

这个是与pycharm的使用,比较简单,就一插件再修改下参数就可以。(感觉没啥太多用处,但聊胜于无)

一、配置方法

1、在pycharm中找到setting中的Plugins中搜索continue插件并安装。

2、修改continue中的配置文件

打开这里的齿轮按钮,进入配置文件的编辑。

3、将这里配置文件中的所有apiBase、model、apiKey根据自己情况进行填写替换。

我这里使用的是私有化部署的deepseek的蒸馏模型,所以这里的参数填写的就是,apiKey随意写:

复制代码
"apiBase": "http://127.0.0.1:1234/v1/"

"model": "deepseek-r1-distill-qwen-7b"

如果是使用公有的,就要填写对应的网址路径以及apiKey。

之后就可以使用了。

二、使用方法

1、直接询问,在红框里面进行询问即可

2、在代码中框选后进行询问,插件会调用模型,结合这部分代码对用户提问进行上下文分析并回答。

三、注意事项

1、插件市场无continue插件

需要注意的是pycharm的版本,比较早的版本没有continue这个插件。

2、无结果返回,且在本地模型报错

这个主要原因是有两个:

1)配置文件的token设置的比较小

在上面提到的continue的配置文件中,把completionOptions里面的maxTokens调大一些。

2)输入框中的文本内容过多

我自己分析是在输入框中之前的每一个提问都会作为历史信息输送到大模型中,即会进行多轮对话,因此导致tocken数目超过了上面设置的数值。

解决方案:

(1)把之前的聊天询问删除掉,也就是点击对于每一个框,点击垃圾桶图标。(有选择地清除历史记录,毕竟历史记录也会作为下一次的输入进行提问)

(2)开启一个新的会话(也就是清除所有历史信息)

点击上面的加号,开启新一轮会话

相关推荐
CoderJia程序员甲1 天前
GitHub 热榜项目 - 日榜(2025-10-04)
ai·开源·大模型·github·ai教程
HealthScience1 天前
怎么科研绘图?怎么批量搜索高质量文献?Nature, Science, Cell
大模型
程序员鱼皮2 天前
Claude 封杀中国后,我终于找到了平替!
计算机·ai·程序员·大模型·互联网
山顶夕景2 天前
【MLLM】Qwen3-Omni全模态模型源码解读
大模型·llm·多模态·mllm
阿福Chris3 天前
Dify本地初始化后安装模型供应商瞬间失败控制台报错401
大模型·llm·dify·大模型工具
珊珊而川3 天前
pass@1是什么意思
大模型
丁学文武3 天前
大模型原理与实践:第三章-预训练语言模型详解_第2部分-Encoder-Decoder-T5
人工智能·语言模型·自然语言处理·大模型·t5·encoder-decoder
丁学文武4 天前
大模型原理与实践:第三章-预训练语言模型详解_第3部分-Decoder-Only(GPT、LLama、GLM)
人工智能·gpt·语言模型·自然语言处理·大模型·llama·glm
utmhikari4 天前
【测试人生】LLM赋能游戏自动化测试的一些想法
自动化测试·游戏·ai·大模型·llm·游戏测试
nju_spy5 天前
大模型面经(一) Prompt + RAG + 微调
人工智能·面试·lora·大模型·rag·提示词工程·peft微调