牵手国际企业,OpenAI计划自己制造AI芯片

据外媒报道称,近日,OpenAI的首席执行官萨姆·奥特曼正在积极洽谈一项规模达数十亿美元的投资项目,计划与多家顶级芯片制造商合作,建设一个覆盖全球的人工智能芯片生产网络。

奥特曼曾多次反馈目前的芯片已不能满足OpenAI公司的AI研发需求,这一战略正为高性能的人工智能模型(如ChatGPT和DALL-E等)提供足够强大的处理器支持。这些模型在处理复杂的查询和图像生成任务时,对计算能力的需求极高,目前市场上,英伟达公司凭借其H100 GPU在高性能人工智能芯片领域占据了主导地位,其市值也因此一度突破了1万亿美元大关。H100等高端加速卡已被广泛应用于GPT-4、Gemini和Llama 2等先进AI模型的训练中。

OpenAI首席执行官萨姆·奥特曼 资料图

H100为什么备受欢迎?H100采用了尖端的台积电4nm工艺,还拥有高达800亿个晶体管,带来了前所未有的性能突破。不仅如此,H100还支持PCle Gen5和HBM3的GPU,内存带宽高达惊人的3TB/s,甚至能实现每秒近5兆字节的外部连接速度!

H100装备了第四代Tensor Core和Transformer引擎(FP8精度),它能使大型语言模型的训练速度可以提高9倍,推理速度能提高30倍。在高性能计算应用方面,H100将FP64的每秒浮点运算次数提升至3倍,还可以添加动态编程指令,使性能提升高达7倍。

自OpenAI发布通用AI大模型ChatGPT以来,企业和开发者对人工智能研究和应用的兴趣直线上升,刺激了对AI芯片的需求。而H100在大语言模型训练市场中一卡难求,很多企业选择使用现成的人工智能数据中心设备和生成式AI服务器集群。baystoneai.com聚合全球智算算力资源GPU服务器,满足企业用户使用NVIDIA H100 GPU或其他算力资源,有兴趣了解更多H100 GPU服务器信息,可联系作者。

相关推荐
袁庭新16 分钟前
使用扣子+飞书+DeepSeek搭建批量提取公众号文章内容并改写的智能体
人工智能·aigc·coze
黑心萝卜三条杠30 分钟前
解码微生物适应性的关键:基因组序列与栖息地预测的深度关联
人工智能
黑心萝卜三条杠1 小时前
Everywhere Attack:通过多目标植入提升对抗样本的目标迁移性
人工智能
carpell1 小时前
【语义分割专栏】3:Segnet原理篇
人工智能·python·深度学习·计算机视觉·语义分割
ahead~1 小时前
【大模型原理与技术-毛玉仁】第五章 模型编辑
人工智能·深度学习·机器学习
迪娜学姐2 小时前
GenSpark vs Manus实测对比:文献综述与学术PPT,哪家强?
论文阅读·人工智能·prompt·powerpoint·论文笔记
TDengine (老段)2 小时前
TDengine 在电力行业如何使用 AI ?
大数据·数据库·人工智能·时序数据库·tdengine·涛思数据
猎板PCB厚铜专家大族2 小时前
高频 PCB 技术发展趋势与应用解析
人工智能·算法·设计规范
l0sgAi2 小时前
SpringBoot整合LangChain4j实现RAG (检索增强生成)
人工智能
祐言QAQ2 小时前
浅谈边缘计算
人工智能·边缘计算