牵手国际企业,OpenAI计划自己制造AI芯片

据外媒报道称,近日,OpenAI的首席执行官萨姆·奥特曼正在积极洽谈一项规模达数十亿美元的投资项目,计划与多家顶级芯片制造商合作,建设一个覆盖全球的人工智能芯片生产网络。

奥特曼曾多次反馈目前的芯片已不能满足OpenAI公司的AI研发需求,这一战略正为高性能的人工智能模型(如ChatGPT和DALL-E等)提供足够强大的处理器支持。这些模型在处理复杂的查询和图像生成任务时,对计算能力的需求极高,目前市场上,英伟达公司凭借其H100 GPU在高性能人工智能芯片领域占据了主导地位,其市值也因此一度突破了1万亿美元大关。H100等高端加速卡已被广泛应用于GPT-4、Gemini和Llama 2等先进AI模型的训练中。

OpenAI首席执行官萨姆·奥特曼 资料图

H100为什么备受欢迎?H100采用了尖端的台积电4nm工艺,还拥有高达800亿个晶体管,带来了前所未有的性能突破。不仅如此,H100还支持PCle Gen5和HBM3的GPU,内存带宽高达惊人的3TB/s,甚至能实现每秒近5兆字节的外部连接速度!

H100装备了第四代Tensor Core和Transformer引擎(FP8精度),它能使大型语言模型的训练速度可以提高9倍,推理速度能提高30倍。在高性能计算应用方面,H100将FP64的每秒浮点运算次数提升至3倍,还可以添加动态编程指令,使性能提升高达7倍。

自OpenAI发布通用AI大模型ChatGPT以来,企业和开发者对人工智能研究和应用的兴趣直线上升,刺激了对AI芯片的需求。而H100在大语言模型训练市场中一卡难求,很多企业选择使用现成的人工智能数据中心设备和生成式AI服务器集群。baystoneai.com聚合全球智算算力资源GPU服务器,满足企业用户使用NVIDIA H100 GPU或其他算力资源,有兴趣了解更多H100 GPU服务器信息,可联系作者。

相关推荐
成富1 小时前
文本转SQL(Text-to-SQL),场景介绍与 Spring AI 实现
数据库·人工智能·sql·spring·oracle
CSDN云计算1 小时前
如何以开源加速AI企业落地,红帽带来新解法
人工智能·开源·openshift·红帽·instructlab
艾派森1 小时前
大数据分析案例-基于随机森林算法的智能手机价格预测模型
人工智能·python·随机森林·机器学习·数据挖掘
hairenjing11231 小时前
在 Android 手机上从SD 卡恢复数据的 6 个有效应用程序
android·人工智能·windows·macos·智能手机
小蜗子1 小时前
Multi‐modal knowledge graph inference via media convergenceand logic rule
人工智能·知识图谱
SpikeKing2 小时前
LLM - 使用 LLaMA-Factory 微调大模型 环境配置与训练推理 教程 (1)
人工智能·llm·大语言模型·llama·环境配置·llamafactory·训练框架
黄焖鸡能干四碗2 小时前
信息化运维方案,实施方案,开发方案,信息中心安全运维资料(软件资料word)
大数据·人工智能·软件需求·设计规范·规格说明书
2 小时前
开源竞争-数据驱动成长-11/05-大专生的思考
人工智能·笔记·学习·算法·机器学习
ctrey_2 小时前
2024-11-4 学习人工智能的Day21 openCV(3)
人工智能·opencv·学习
攻城狮_Dream2 小时前
“探索未来医疗:生成式人工智能在医疗领域的革命性应用“
人工智能·设计·医疗·毕业