量子计算与AI融合:IBM引领未来计算新纪元

每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

过去一年里,越来越多的人开始关注量子计算机如何融入并连接经典计算架构。量子计算机可以作为加速器,执行某些任务的复杂计算,这些任务即使是经典超级计算机也无法完成。在开发量子算法和电路的过程中,经典计算机或服务器用于预处理,而后处理则用于管理错误、改进结果并完成处理任务。正如不断增长的AI应用案例所表明的那样,AI可以增强经典计算能力,因此,AI也有可能增强量子计算能力,目前有多家公司正致力于实现这一目标。

尽管许多人和公司开始将量子和AI合并成一个术语,但这两者是截然不同的技术。AI是指在经典计算平台上开发和运行的神经网络模型,这些平台由CPU、GPU、NPU、DSP、FPGA等传统二进制处理逻辑元件驱动。量子计算机则使用超导transmon量子比特等替代计算架构,通过量子物理解决非常复杂的问题。尽管两者需要不同的硬件、软件和支持系统,但两者的整合正在推进,特别是为了量子计算的利益。IBM是推动AI与量子计算相结合的公司之一。

IBM被认为是量子计算领域的领导者,硬件、软件和系统技术不断进步,已在全球部署了量子计算机。IBM在AI技术方面也处于领先地位,其watsonx平台自2011年在《危险边缘》节目中获胜以来,取得了许多进展。此后,watsonx发展成为一个可扩展的企业平台,提供AI工作室、数据、治理和助手解决方案。现在,IBM将这两项技术结合起来,以增强量子计算并加速其采用。

最近,在与IBM的讨论中,该公司概述了如何将其AI技术整合到Qiskit软件中,以改进SDK工具和OpenQASM3(开放量子汇编语言)的易用性。IBM正在利用其Granite AI模型的watsonx生成AI平台,生成能够提供开发者支持和量子代码辅助的数字代理。

此外,IBM正在研究和开发新的AI模型,以改进电路优化、资源管理以及提高错误抑制、缓解和校正的能力。

作为其致力于将AI整合到量子计算中的一部分,IBM还推出了带有Visual Studio扩展的Qiskit代码助手服务,并计划推出两个量子聊天机器人------一个用于帮助开发人员,另一个用于IBM量子服务的一般用户。

在电路优化方面,AI模型可以作为插件嵌入到Qiskit SDK中,通过编译器服务或与启发式方法结合使用。根据IBM的说法,编译器服务提供了更好的抽象电路到量子ISA电路的映射,电路尺寸提高了40%,质量更好,处理速度提高了2到5倍。

在资源管理方面,IBM正在开发AI解决方案,以更好地估算量子运行时间,标记可能失败的工作负载,并对电路进行分区以进行并行处理,从而更好地利用经典和量子资源。这包括利用AI超级计算机。

未来的异构数据中心将包含量子处理单元(QPU),结合IBM在本十年末达到1亿门量子逻辑门和2033年左右达到10亿门的激进路线图,量子计算正迅速朝着在未来几年部署实用量子应用迈进。结果,我们可能会在本十年末看到结合最新CPU、AI加速器和QPU性能的异构数据中心。

相关推荐
新智元几秒前
华尔街彻夜难眠!Gemini 3 屠榜金融「最难考试」,AI 砸了「金饭碗」?
人工智能·openai
阿正的梦工坊1 分钟前
PyTorch 权重剪枝中的阈值计算:深入解读 numel() 和 torch.kthvalue()
人工智能·pytorch·剪枝
Mintopia2 分钟前
🌐 技术平权视角:WebAIGC如何让小众创作者获得技术赋能?
人工智能·aigc·ai编程
珂朵莉MM4 分钟前
第七届全球校园人工智能算法精英大赛-算法巅峰赛产业命题赛第三赛季--前五题总结
人工智能·算法
阿乔外贸日记5 分钟前
爱尔兰公司后续维护
大数据·人工智能·智能手机·云计算·汽车
Jerryhut8 分钟前
sklearn函数总结十一 —— 随机森林
人工智能·随机森林·sklearn
测试人社区-千羽12 分钟前
语义分析驱动的测试用例生成:提升软件测试效率的新范式
运维·人工智能·opencv·面试·职场和发展·自动化·测试用例
CNRio12 分钟前
从水银体温计淘汰看中国科技战略与技术伦理的深度融合
大数据·人工智能·科技
神算大模型APi--天枢64613 分钟前
自主算力筑基 数据提质增效:国产硬件架构平台下大模型训练数据集的搜集与清洗实践
大数据·人工智能·科技·架构·硬件架构
木卫二号Coding15 分钟前
第五十九篇-ComfyUI+V100-32G+运行Flux Schnell
人工智能