DeepSeek应用——与PyCharm的配套使用

目录

一、配置方法

二、使用方法

三、注意事项

1、插件市场无continue插件

2、无结果返回,且在本地模型报错


记录自己学习应用DeepSeek的过程,使用的是自己电脑本地部署的私有化蒸馏模型......

(举一反三,这个不单单是可以用在DeepSeek,所有市面上的模型都可以模拟进行替换)

=======================================================================

这个是与pycharm的使用,比较简单,就一插件再修改下参数就可以。(感觉没啥太多用处,但聊胜于无)

一、配置方法

1、在pycharm中找到setting中的Plugins中搜索continue插件并安装。

2、修改continue中的配置文件

打开这里的齿轮按钮,进入配置文件的编辑。

3、将这里配置文件中的所有apiBase、model、apiKey根据自己情况进行填写替换。

我这里使用的是私有化部署的deepseek的蒸馏模型,所以这里的参数填写的就是,apiKey随意写:

复制代码
"apiBase": "http://127.0.0.1:1234/v1/"

"model": "deepseek-r1-distill-qwen-7b"

如果是使用公有的,就要填写对应的网址路径以及apiKey。

之后就可以使用了。

二、使用方法

1、直接询问,在红框里面进行询问即可

2、在代码中框选后进行询问,插件会调用模型,结合这部分代码对用户提问进行上下文分析并回答。

三、注意事项

1、插件市场无continue插件

需要注意的是pycharm的版本,比较早的版本没有continue这个插件。

2、无结果返回,且在本地模型报错

这个主要原因是有两个:

1)配置文件的token设置的比较小

在上面提到的continue的配置文件中,把completionOptions里面的maxTokens调大一些。

2)输入框中的文本内容过多

我自己分析是在输入框中之前的每一个提问都会作为历史信息输送到大模型中,即会进行多轮对话,因此导致tocken数目超过了上面设置的数值。

解决方案:

(1)把之前的聊天询问删除掉,也就是点击对于每一个框,点击垃圾桶图标。(有选择地清除历史记录,毕竟历史记录也会作为下一次的输入进行提问)

(2)开启一个新的会话(也就是清除所有历史信息)

点击上面的加号,开启新一轮会话

相关推荐
ModelWhale1 天前
“大模型”技术专栏 | 浅谈基于 Kubernetes 的 LLM 分布式推理框架架构:概览
分布式·kubernetes·大模型
charlee441 天前
在本地部署Qwen大语言模型全过程总结
大模型·cuda·qwen·量化
SuperherRo2 天前
Web攻防-大模型应用&LLM安全&提示词注入&不安全输出&代码注入&直接间接&数据投毒
大模型·llm·提示词注入·不安全输出·直接·间接
努力还债的学术吗喽2 天前
2020 GPT3 原文 Language Models are Few-Shot Learners 精选注解
gpt·大模型·llm·gpt-3·大语言模型·few-shot·zero-shot
精致先生2 天前
Streamlit实现Qwen对话机器人
python·机器人·大模型·streamlit
ai绘画-安安妮3 天前
零基础学LangChain:核心概念与基础组件解析
人工智能·学习·ai·程序员·langchain·大模型·转行
没事学AI5 天前
移动端调用大模型详解
ios·大模型·安卓
Jeremy_lf5 天前
阿里巴巴开源多模态大模型-Qwen-VL系列论文精读(一)
大模型·qwen·多模态大模型·mllm
陈敬雷-充电了么-CEO兼CTO5 天前
OpenAI开源大模型 GPT-OSS 开放权重语言模型解析:技术特性、部署应用及产业影响
人工智能·gpt·ai·语言模型·自然语言处理·chatgpt·大模型