牵手国际企业,OpenAI计划自己制造AI芯片

据外媒报道称,近日,OpenAI的首席执行官萨姆·奥特曼正在积极洽谈一项规模达数十亿美元的投资项目,计划与多家顶级芯片制造商合作,建设一个覆盖全球的人工智能芯片生产网络。

奥特曼曾多次反馈目前的芯片已不能满足OpenAI公司的AI研发需求,这一战略正为高性能的人工智能模型(如ChatGPT和DALL-E等)提供足够强大的处理器支持。这些模型在处理复杂的查询和图像生成任务时,对计算能力的需求极高,目前市场上,英伟达公司凭借其H100 GPU在高性能人工智能芯片领域占据了主导地位,其市值也因此一度突破了1万亿美元大关。H100等高端加速卡已被广泛应用于GPT-4、Gemini和Llama 2等先进AI模型的训练中。

OpenAI首席执行官萨姆·奥特曼 资料图

H100为什么备受欢迎?H100采用了尖端的台积电4nm工艺,还拥有高达800亿个晶体管,带来了前所未有的性能突破。不仅如此,H100还支持PCle Gen5和HBM3的GPU,内存带宽高达惊人的3TB/s,甚至能实现每秒近5兆字节的外部连接速度!

H100装备了第四代Tensor Core和Transformer引擎(FP8精度),它能使大型语言模型的训练速度可以提高9倍,推理速度能提高30倍。在高性能计算应用方面,H100将FP64的每秒浮点运算次数提升至3倍,还可以添加动态编程指令,使性能提升高达7倍。

自OpenAI发布通用AI大模型ChatGPT以来,企业和开发者对人工智能研究和应用的兴趣直线上升,刺激了对AI芯片的需求。而H100在大语言模型训练市场中一卡难求,很多企业选择使用现成的人工智能数据中心设备和生成式AI服务器集群。baystoneai.com聚合全球智算算力资源GPU服务器,满足企业用户使用NVIDIA H100 GPU或其他算力资源,有兴趣了解更多H100 GPU服务器信息,可联系作者。

相关推荐
devpotato5 分钟前
人工智能(十六)- SSE 流式:让 Agent 像 ChatGPT 一样“边想边说“
人工智能·语言模型·langchain
深度智能Ai7 分钟前
云声配音(MelodyCloud Studio):AI驱动的全链路音视频创作平台
人工智能·音视频
谁似人间西林客8 分钟前
工厂大脑如何让汽车制造告别“救火式”运维?
运维·汽车·制造
边缘计算社区14 分钟前
物理 AI 为什么离不开边缘计算?
人工智能·边缘计算
宝贝儿好33 分钟前
【LLM】第三章:项目实操案例:智能输入法项目
人工智能·python·深度学习·算法·机器人
AI创界者1 小时前
【首发】LTX-2.3-10Eros 视频生成本地化部署教程:8G显存流畅运行,支持RTX 50系列(附一键整合包)
人工智能
Elastic 中国社区官方博客1 小时前
Elastic 的 AI agent skills
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索
容智信息1 小时前
AI Agent(智能体)的输出格式应该从 Markdown 转向 HTML吗?
前端·人工智能·rust·编辑器·html·prompt
学习论之费曼学习法1 小时前
AI 入门 30 天挑战 - Day 28 - 前沿技术概览
人工智能
陕西字符1 小时前
2026 西安小微企业地图与 AI 问答排名优化:专业技术指南与落地方案
大数据·人工智能