手把手教你更优雅的享受 DeepSeek

开始之前,首先要确定你已经配置好Ollama软件并正常运行DeepSeek本地模型。如果这一步还不清楚,请翻看之前的手把手教程《手把手教你部署 DeepSeek 本地模型》。

本文是手把手教程系列第3篇,包含内容如下:

  • 1.如何使用浏览器调用DeepSeek
  • 2.为何使用最小DeepSeek模型演示
  • 3.使用API方式免费体验满血版DeepSeek

1.如何使用浏览器调用DeepSeek

先前教程中,在UI界面实现这部分,给大家推荐的是 Chatbox 桌面软件,这是为了更多的小白能够没有任何门槛的直接上手实践。

但实际上,对于有梯子的读者,还有一种更加简单、轻量且优雅的Web调用方案:

只需要在Chrome浏览器中添加扩展程序 Page Assist,就可以实现在Web端更优雅的调用本地 AI 模型。

  • Page Assist - 本地 AI 模型的 Web UI

注:

  • 1.Page Assist插件安装好之后,也可实现在无网环境下,通过Web UI随时和本地部署的各种大模型畅快聊天。
  • 2.如果你的机器是全周期无法上网的,还可以下载对应Page Assist的离线安装包,手动安装即可。

下面演示下具体步骤。

打开Chrome浏览器,在地址栏输入扩展程序的网址:

  • chrome://extensions/

这里点击Chrome 应用商店并搜索扩展程序 Page Assist

选择添加至Chrome

选择添加扩展程序

如此就成功将 Page Assist 添加至Chrome。

然后,为了今后更方便的调用,我们可以把它固定下。

这样,当我们再次打开浏览器,就可以直接点击红框中的这个按钮启动扩展程序 Page Assist

启动后,按下图步骤,选择本地部署的DeepSeek模型,确认Ollama运行状态正常,就可以直接输入文字聊天了:

是不是这种方式更加简单,且很优雅!

2.为何使用最小DeepSeek模型演示

这里特别解答下,之前有很多读者私信好心建议我不要使用1.5b的模型测试,至少也要7b以上版本,效果会更好。

但实际上由于笔者目前测试硬件比较低,虽然也能勉强运行起下一个级别的7b模型,但反应慢的完全不可接受,我这里实测7b的模型,问简单问题,都需要思考20s:

而换回1.5b的模型,基本秒出,即便思考也就2s的样子:

而且,即便7b要比1.5b的模型能力是有所提升,但并没有到质的差异。

所以在硬件没升级之前,后续演示主要还是会选择这个1.5b的最小模型,这样测试反馈的效率高,心情也能舒畅。

通过从DeepSeek官方给出的测试图来看:

也可以发现,在这张benchmark的对比图上,人家都没考虑比32b更低的模型,这其实也算暗示了32b以下的模型基本表现都拿不出手,可是如果想要本地部署32b或更大的模型,首先你的硬件得跟得上。

3.使用API方式免费体验满血版DeepSeek

既然本地部署情况,在不具备好的硬件条件之前,实际使用效果一定欠佳。

那如果想提前体验下更大模型的具体效果,该怎么做呢?

答案就是使用API的方式,这种方式下连Ollama都不需要了,只需要配置好对应的API key,就可以轻松体验到满血版的DeepSeek。

1)使用DeepSeek官方API

官方API网址:

这个网址曾经处于维护,但如今已经可以打开,但由于目前服务器资源还是紧张,官方已暂停API服务充值,之前余额依然可用。

需要注意这个key创建时就需要复制保留好,以后不提供再复制。

如果忘记保存,只能这样重建新的key:

测试下接入官方API的效果,使用API的方式还是要用到之前的Chatbox:

这里测试,想到笔者在学生时期,老师曾经说通常古诗最难翻译好。

让它帮我翻译《画》这首古诗为英文,选择普通的deepseek-chat模型,这个模型不会推理,直接会给出答案,我觉得效果也非常好。

附:官方的API在Chatbox软件中的设置方式如下图:

2)使用第三方服务商API

因为官方的资源目前还是紧张,所以除了官方的途径之外,还有一些第三方服务商的选择,比如这里以流行度较高的siliconflow为例,点击下面的邀请链接(邀请码:aYaHaxLo),注册登录后即送免费的14元配额,可以够玩上一阵子了:

注意,siliconflow这个API的key如果没保存,是支持随时再次复制保存的,这点安全策略上和官方的设计有所不同。

复制key之后,在Chatbox下设置silicon flow的API粘贴进去即可:

配置好之后,同样测试下,帮我翻译《画》这首古诗为英文,这回选择deepseek-ai/DeepSeek-R1模型,效果如下:

超过了3页篇幅的推理思考,然后给出了答案:

可以直观的看到,这满血版的deepseek-r1思考推理能力,确实要比本地部署的小号模型强大许多。

至此,基础篇就差不多了,后面计划持续研究分享进阶篇,后续教程大家还想了解哪些方面,欢迎在评论区留言。

相关推荐
Elastic 中国社区官方博客3 小时前
Elasticsearch 混合搜索 - Hybrid Search
大数据·人工智能·elasticsearch·搜索引擎·ai·语言模型·全文检索
9命怪猫3 小时前
DeepSeek底层揭秘——微调
人工智能·深度学习·神经网络·ai·大模型
王亭_6663 小时前
VSCode集成deepseek使用介绍(Visual Studio Code)
ide·vscode·编辑器·deepseek·openrouter
d3soft4 小时前
deepseek清华大学第二版 如何获取 DeepSeek如何赋能职场应用 PDF文档 电子档(附下载)
ai·pdf·教程·deepseek·赋能职场
AIGC大时代6 小时前
DeepSeek学术指南:利用DeepSeek撰写学术论文和需要注意的问题
chatgpt·学术论文·deepseek·aiwritepaper
说是用户昵称已存在6 小时前
Pycharm+CodeGPT+Ollama+Deepseek
ide·python·ai·pycharm
banjin8 小时前
免费体验,在阿里云平台零门槛调用满血版DeepSeek-R1模型
阿里云·自然语言处理·云计算·ai编程·ai写作·deepseek
王会举9 小时前
DeepSeek模型集成到java中使用(阿里云版)超简单版
java·阿里云·deepseek
逆旅行天涯10 小时前
【DeepSeek】本地部署,保姆级教程
deepseek
涛涛讲AI11 小时前
文心一言大模型的“三级跳”:从收费到免费再到开源,一场AI生态的重构实验
人工智能·百度·大模型·deepseek