牵手国际企业,OpenAI计划自己制造AI芯片

据外媒报道称,近日,OpenAI的首席执行官萨姆·奥特曼正在积极洽谈一项规模达数十亿美元的投资项目,计划与多家顶级芯片制造商合作,建设一个覆盖全球的人工智能芯片生产网络。

奥特曼曾多次反馈目前的芯片已不能满足OpenAI公司的AI研发需求,这一战略正为高性能的人工智能模型(如ChatGPT和DALL-E等)提供足够强大的处理器支持。这些模型在处理复杂的查询和图像生成任务时,对计算能力的需求极高,目前市场上,英伟达公司凭借其H100 GPU在高性能人工智能芯片领域占据了主导地位,其市值也因此一度突破了1万亿美元大关。H100等高端加速卡已被广泛应用于GPT-4、Gemini和Llama 2等先进AI模型的训练中。

OpenAI首席执行官萨姆·奥特曼 资料图

H100为什么备受欢迎?H100采用了尖端的台积电4nm工艺,还拥有高达800亿个晶体管,带来了前所未有的性能突破。不仅如此,H100还支持PCle Gen5和HBM3的GPU,内存带宽高达惊人的3TB/s,甚至能实现每秒近5兆字节的外部连接速度!

H100装备了第四代Tensor Core和Transformer引擎(FP8精度),它能使大型语言模型的训练速度可以提高9倍,推理速度能提高30倍。在高性能计算应用方面,H100将FP64的每秒浮点运算次数提升至3倍,还可以添加动态编程指令,使性能提升高达7倍。

自OpenAI发布通用AI大模型ChatGPT以来,企业和开发者对人工智能研究和应用的兴趣直线上升,刺激了对AI芯片的需求。而H100在大语言模型训练市场中一卡难求,很多企业选择使用现成的人工智能数据中心设备和生成式AI服务器集群。baystoneai.com聚合全球智算算力资源GPU服务器,满足企业用户使用NVIDIA H100 GPU或其他算力资源,有兴趣了解更多H100 GPU服务器信息,可联系作者。

相关推荐
卓豪终端管理3 分钟前
如何安全地管理固定功能设备?
java·大数据·开发语言·网络·人工智能·安全
Sherlock Ma9 分钟前
基于LightRAG进行本地RAG部署(包括单卡多卡本地模型部署、调用阿里云或DeepSeekAPI的部署方法、RAG使用方法)
人工智能·阿里云·大模型·aigc·检索增强·rag·deepseek
User_芊芊君子12 分钟前
从0到1:让AI赋能计算机的全流程实践指南
人工智能
人工智能交叉前沿技术,23 分钟前
机器学习在催化剂设计中的应用理论加实操
人工智能·机器学习
声网24 分钟前
Edge 浏览器推出 Copilot Vision:免费实时解析屏幕内容;Aqua Voice:极速 AI 语音输入工具丨日报
人工智能
努力犯错玩AI27 分钟前
16.4B参数仅激活2.8B!Kimi-VL-A3B开源:长文本、多模态、低成本的AI全能选手
人工智能·后端·开源
Watermelo61733 分钟前
《Science》观点解读:AI无法创造真正的智能体(AI Agent)
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·数据挖掘
suke36 分钟前
企业级部署实操: SGLang 多节点集群部署 Qwen 系列大模型
人工智能·ai编程
灏瀚星空1 小时前
AI 模型高效化:推理加速与训练优化的技术原理与理论解析
开发语言·人工智能·深度学习·程序人生·机器人·智慧城市·量子计算
mex_wayne1 小时前
基础学习:(6)nanoGPT
人工智能·学习·transformer