DeepSeek应用——与PyCharm的配套使用

目录

一、配置方法

二、使用方法

三、注意事项

1、插件市场无continue插件

2、无结果返回,且在本地模型报错


记录自己学习应用DeepSeek的过程,使用的是自己电脑本地部署的私有化蒸馏模型......

(举一反三,这个不单单是可以用在DeepSeek,所有市面上的模型都可以模拟进行替换)

=======================================================================

这个是与pycharm的使用,比较简单,就一插件再修改下参数就可以。(感觉没啥太多用处,但聊胜于无)

一、配置方法

1、在pycharm中找到setting中的Plugins中搜索continue插件并安装。

2、修改continue中的配置文件

打开这里的齿轮按钮,进入配置文件的编辑。

3、将这里配置文件中的所有apiBase、model、apiKey根据自己情况进行填写替换。

我这里使用的是私有化部署的deepseek的蒸馏模型,所以这里的参数填写的就是,apiKey随意写:

复制代码
"apiBase": "http://127.0.0.1:1234/v1/"

"model": "deepseek-r1-distill-qwen-7b"

如果是使用公有的,就要填写对应的网址路径以及apiKey。

之后就可以使用了。

二、使用方法

1、直接询问,在红框里面进行询问即可

2、在代码中框选后进行询问,插件会调用模型,结合这部分代码对用户提问进行上下文分析并回答。

三、注意事项

1、插件市场无continue插件

需要注意的是pycharm的版本,比较早的版本没有continue这个插件。

2、无结果返回,且在本地模型报错

这个主要原因是有两个:

1)配置文件的token设置的比较小

在上面提到的continue的配置文件中,把completionOptions里面的maxTokens调大一些。

2)输入框中的文本内容过多

我自己分析是在输入框中之前的每一个提问都会作为历史信息输送到大模型中,即会进行多轮对话,因此导致tocken数目超过了上面设置的数值。

解决方案:

(1)把之前的聊天询问删除掉,也就是点击对于每一个框,点击垃圾桶图标。(有选择地清除历史记录,毕竟历史记录也会作为下一次的输入进行提问)

(2)开启一个新的会话(也就是清除所有历史信息)

点击上面的加号,开启新一轮会话

相关推荐
程序员鱼皮8 小时前
扒了下 Cursor 的提示词,被狠狠惊艳到了!
计算机·ai·程序员·大模型·互联网·编程
bylander10 小时前
【论文阅读】自我进化的AI智能体综述
人工智能·大模型·智能体
居7然17 小时前
美团大模型“龙猫”登场,能否重塑本地生活新战局?
人工智能·大模型·生活·美团
Tadas-Gao1 天前
阿里云通义MoE全局均衡技术:突破专家负载失衡的革新之道
人工智能·架构·大模型·llm·云计算
bboyzqh2 天前
任务型Agent:prompt工程实践
大模型·prompt·上下文工程
love530love2 天前
【保姆级教程】阿里 Wan2.1-T2V-14B 模型本地部署全流程:从环境配置到视频生成(附避坑指南)
人工智能·windows·python·开源·大模型·github·音视频
nju_spy2 天前
Kaggle - LLM Science Exam 大模型做科学选择题
人工智能·机器学习·大模型·rag·南京大学·gpu分布计算·wikipedia 维基百科
Wilber的技术分享2 天前
【大模型实战笔记 1】Prompt-Tuning方法
人工智能·笔记·机器学习·大模型·llm·prompt
居7然2 天前
从零开始学大模型之预训练语言模型
人工智能·语言模型·自然语言处理·大模型
飞机火车巴雷特3 天前
【论文阅读】LightThinker: Thinking Step-by-Step Compression (EMNLP 2025)
论文阅读·人工智能·大模型·cot