4大观点直面呈现|直播回顾-DeepSeek时代的AI算力管理

直播回顾

2025年2月21日晚上9点30分,

我们迎来了新春后的首场人工智能三人行宣讲活动。

这场直播聚焦于Deepseek开源大模型

探讨了其对AI算力、算法、数据及应用带来的新发展。

本次直播邀请到了上海赞奇的总经理俞阁总和速石科技陈琳涛,

主持人则为SRE专委会发起人 刘峰老师,

三位嘉宾围绕AI算力管理展开了深入讨论。

随着Deepseek开源大模型的发布,AI领域迎来了新的变革。

三位嘉宾从不同角度探讨了AI算力需求的变化、

端侧与推理算力的崛起、国产自主可控算力的发展,

以及人工智能在企业中的应用场景。

话题一:AI算力需求的变化

刘峰老师首先指出,AI算力始终是大模型的基础,

而DeepSeek的出现极大地推动了算力需求的增长。

俞总补充道,DeepSeek不仅降低了大模型的使用门槛,

还激发了企业和个人对AI算力的需求。

他强调,尽管基础大模型的训练需求有其上限,

但推理应用的场景正在迅速扩大,

这将带来GPU和硬件需求的爆发式增长。

陈总则从企业角度出发,

指出Deepseek的出现加速了AI算力的部署,

尤其是云厂商纷纷将资源倾斜于DeepSeek,

推动了从云端到本地的算力需求转变。

他提到,企业现在更倾向于在本地部署AI模型,

以满足特定业务场景的需求。

话题二:端侧AI与推理算力的崛起

在端侧AI与推理算力方面,

俞总认为,AI应用正从云端向端侧转移,

企业和个人用户对本地化部署的需求日益增加。

他提到个人用户可以通过本地设备(如Mac mini或4090显卡)

运行AI模型,

而企业则需要根据自身规模选择合适的AI工作站或服务器。

陈总则强调,

推理算力的崛起不仅是技术发展的必然,

也是企业降本增效的重要手段。

他指出,企业需要在本地化部署和云端API之间找到平衡,

以满足不同业务场景的需求。

话题三:国产自主可控算力的进展

在国产自主可控算力方面,

俞总表示,尽管国产GPU在性能和生态建设上仍有差距,

但在推理场景中已经具备一定的替代能力。

他提到,国产芯片的成本相对较高,

但随着技术的发展和市场的竞争,

未来有望实现降本增效。

陈总则从企业应用的角度出发,

指出国产芯片的适配和生态建设仍需时间。

他提到,尽管部分国产芯片已经在特定场景中实现了良好的适配,

但整体生态的完善还需要各方共同努力。

话题四:人工智能的学习与应用

刘峰老师分享了他们在培训领域的经验,强调了理性看待AI的重要性。

他提到,企业需要根据自身需求,

选择合适的AI模型,而不是盲目追求高性能硬件。

俞总和陈总也分别从技术和业务角度给出了建议,

强调了AI工具在提升工作效率和优化业务流程中的价值。

直播总结:

本次直播围绕Deepseek开源大模型对AI算力的影响,展开了深入讨论。

嘉宾们一致认为,DeepSeek不仅推动了AI算力需求的增长,

还加速了端侧AI和推理算力的发展。

尽管国产自主可控算力仍面临挑战,

但随着技术的进步和市场的竞争,

未来有望实现更大的突破。

我们希望通过本次直播,

帮助观众更好地理解AI算力时代的机遇与挑战。

相关推荐
格林威14 分钟前
偏振相机是否属于不同光谱相机的范围内
图像处理·人工智能·数码相机·计算机视觉·视觉检测·工业相机
A-大程序员23 分钟前
【pytorch】合并与分割
人工智能·pytorch·深度学习
AI新兵1 小时前
AI大事记12:Transformer 架构——重塑 NLP 的革命性技术(上)
人工智能·自然语言处理·transformer
Dongsheng_20192 小时前
【汽车篇】AI深度学习在汽车零部件外观检测——刹车片中的应用
人工智能·汽车
LONGZETECH2 小时前
【龙泽科技】汽车转向悬架与制动安全系统技术1+X仿真教学软件(1.2.3 -初级)
人工智能·科技·汽车·汽车仿真教学软件·汽车教学软件
JAVA学习通2 小时前
PostgreSQL 的 hstore、arrays 数据类型
人工智能·自然语言处理
realhuizhu2 小时前
分享一个知乎高赞回答生成AI指令:让技术人也能写出有深度的回答
知乎·ai工具·提示词工程·deepseek·内容创作
AKAMAI3 小时前
云成本困境:开支激增正阻碍欧洲AI创新
人工智能·云原生·云计算
大模型真好玩3 小时前
LangGraph实战项目:从零手搓DeepResearch(一)——DeepResearch应用体系详细介绍
人工智能·python·mcp
IT古董3 小时前
【第五章:计算机视觉-项目实战之生成式算法实战:扩散模型】3.生成式算法实战:扩散模型-(4)在新数据集上微调现有扩散模型
人工智能