在线教程丨媲美 o3-mini,开源代码推理模型 DeepCoder-14B-Preview 狂揽 3k stars

4 月 9 日凌晨,Agentica 团队携手 Together AI 联合开源了名为 DeepCoder-14B-Preview 的代码推理模型,这个仅需 14B 即可媲美 OpenAI o3-Mini 的新模型迅速引起业界广泛关注,在 GitHub 狂揽 3k stars。

DeepCoder 在多项评测中的得分情况具体而言,DeepCoder-14B-Preview 是一款基于 DeepSeek-R1-Distilled-Qwen-14B 进行微调的代码推理 LLM,使用分布式强化学习 (RL) 扩展上下文长度。该模型在 LiveCodeBench v5 (8/1/24-2/1/25) 上实现了 60.6% 的单次通过率 (Pass@1),不仅超越了其基础模型,并且仅凭 140 亿参数就达到了与 OpenAI o3-mini 相当的性能。

目前「一键部署 DeepCoder-14B-Preview」教程已上线至 HyperAI超神经官网的教程板块中,模型克隆完成后进入「API 地址」即可快速体验模型!

教程链接:go.hyper.ai/0J82f

Demo 运行

  1. 登录 hyper.ai,在「教程」页面,选择「一键部署 DeepCoder-14B-Preview」,点击「在线运行此教程」。
  1. 页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

3.选择「NVIDIA GeForce RTX 4090」以及「vLLM」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!

HyperAI超神经专属邀请链接(直接复制到浏览器打开): openbayes.com/console/sig...

4.等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」旁边的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。

效果展示

进入 Demo 页面后即可体验模型。本教程以 DeepCoder-14B-Preview 模型为演示案例,采用 bitsandbytes 提供的 8-bit 量化方法来优化显存占用。

在「input」栏中输入内容,点击「Submit」生成。点击「Clear History」可清除对话记录。

此处以经典的冒泡排序为例,可以看到模型很快地对问题做出了答复。

相关推荐
token-go1 小时前
[特殊字符] 革命性AI提示词优化平台正式开源!
人工智能·开源
DevSecOps选型指南6 小时前
2025软件供应链安全最佳实践︱证券DevSecOps下供应链与开源治理实践
网络·安全·web安全·开源·代码审计·软件供应链安全
Shannon@6 小时前
Deepseek基座:Deepseek-v2核心内容解析
deepseek
白水baishui7 小时前
搭建强化推荐的决策服务架构
架构·推荐系统·强化学习·决策服务·服务架构
潘锦8 小时前
DeepSeek 和腾讯元宝都选择在用的SSE 到底是什么?
deepseek
草梅友仁11 小时前
AI 图片文字翻译与视频字幕翻译工具推荐 | 2025 年第 23 周草梅周报
开源·github·aigc
Ai多利14 小时前
能上Nature封面的idea!强化学习+卡尔曼滤波
强化学习·卡尔曼滤波
心随_风动15 小时前
SUSE Linux 发行版全面解析:从开源先驱到企业级支柱
linux·运维·开源
PythonFun15 小时前
DeepSeek-R1-0528:开源推理模型的革新与突破
语言模型·开源
轻语呢喃15 小时前
DeepSeek 接口调用:从 HTTP 请求到智能交互
javascript·deepseek