在线教程丨媲美 o3-mini,开源代码推理模型 DeepCoder-14B-Preview 狂揽 3k stars

4 月 9 日凌晨,Agentica 团队携手 Together AI 联合开源了名为 DeepCoder-14B-Preview 的代码推理模型,这个仅需 14B 即可媲美 OpenAI o3-Mini 的新模型迅速引起业界广泛关注,在 GitHub 狂揽 3k stars。

DeepCoder 在多项评测中的得分情况具体而言,DeepCoder-14B-Preview 是一款基于 DeepSeek-R1-Distilled-Qwen-14B 进行微调的代码推理 LLM,使用分布式强化学习 (RL) 扩展上下文长度。该模型在 LiveCodeBench v5 (8/1/24-2/1/25) 上实现了 60.6% 的单次通过率 (Pass@1),不仅超越了其基础模型,并且仅凭 140 亿参数就达到了与 OpenAI o3-mini 相当的性能。

目前「一键部署 DeepCoder-14B-Preview」教程已上线至 HyperAI超神经官网的教程板块中,模型克隆完成后进入「API 地址」即可快速体验模型!

教程链接:go.hyper.ai/0J82f

Demo 运行

  1. 登录 hyper.ai,在「教程」页面,选择「一键部署 DeepCoder-14B-Preview」,点击「在线运行此教程」。
  1. 页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

3.选择「NVIDIA GeForce RTX 4090」以及「vLLM」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!

HyperAI超神经专属邀请链接(直接复制到浏览器打开): openbayes.com/console/sig...

4.等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」旁边的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。

效果展示

进入 Demo 页面后即可体验模型。本教程以 DeepCoder-14B-Preview 模型为演示案例,采用 bitsandbytes 提供的 8-bit 量化方法来优化显存占用。

在「input」栏中输入内容,点击「Submit」生成。点击「Clear History」可清除对话记录。

此处以经典的冒泡排序为例,可以看到模型很快地对问题做出了答复。

相关推荐
Jahzo8 小时前
openclaw本地化部署体验与踩坑记录--飞书机器人配置
人工智能·开源
Jahzo10 小时前
openclaw本地化部署体验与踩坑记录--windows
开源·全栈
冬奇Lab14 小时前
一天一个开源项目(第39篇):PandaWiki - AI 驱动的开源知识库搭建系统
人工智能·开源·资讯
HelloGitHub15 小时前
这个年轻的开源项目,想让每个人都能拥有自己的专业级 AI 智能体
开源·github·agent
Kagol1 天前
🎉OpenTiny NEXT-SDK 重磅发布:四步把你的前端应用变成智能应用!
前端·开源·agent
冬奇Lab1 天前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab1 天前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
sunny8651 天前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github
strayCat232552 天前
Clawdbot 源码解读 7: 扩展机制
人工智能·开源
Moment2 天前
OpenClaw 从能聊到能干差的是这 50 个 Skills 😍😍😍
前端·后端·开源