首次突破1000量子比特!德国TU Darmstadt发布全新量子处理架构

***内容来源:*量子前哨(ID:Qforepost)

****编辑丨慕一 编译/排版丨沛贤

深度好文:1200字丨8分钟阅读

量子计算机能否进一步发展,关键在于量子系统如何更具有可扩展性。随着量子系统规模的扩大,其算力优势会越来越明显。德国TU Darmstadt(达姆施塔特工业大学)的研究人员最近为实现这一目标迈出了决定性一步,最近,他们的研究结果已发表在知名期刊《OPTICA》上。

该项研究使用了聚焦激光束创建二维光镊阵列的量子处理器,是目前开发和模拟量子计算较有前途的技术之一,未来能实现非常广泛的应用:从药物开发到优化交通流的各种应用,都将从这项技术中受益。

目前,TU Darmstadt的量子处理器已经能够容纳数百个甚至上千个单 原子量子系统,其中每个原子代表一个量子比特。为了取得更大进展,增加处理器中的量子比特数量很有必要。由TU Darmstadt物理系"Atoms -- Photons -- Quanta(原子-光子-量子)"研究小组的Gerhard Birkl教授领导的团队已经实现了这一目标。

该团队于2023年10月在 arXiv上张贴了一篇研究文章,现经过科学同行评审,已经发表在著名期刊《OPTICA》上,报告他们已经完成了世界上首个包含1,000多个原子量子比特的量子计算实验,实现了在一个平面中的量子处理架构。

Birkl说:"我们非常高兴成为首个突破1,000个独立可控原子量子比特这一大关的公司,许多杰出的竞争对手都在紧随我们的脚步。"

这是通过引入"量子比特增殖"的新技术来实现的,这一新技术能够克服因激光器性能有限而导致的对可用量子比特数量的限制。

1,305个单原子量子比特被加载到具有3,000个阱点的量子阵列中,并重新组装成多达441个量子比特的无缺陷目标结构。通过并行使用多个激光源,突破了迄今为止几乎难以逾越的技术界限。

对于很多行业的实际应用来说,1,000个量子比特被视为突破量子计算实用性阈值。一旦突破量子计算机的效率能实现大幅提升。世界各地的研究人员一直在努力成为第一个突破这一门槛的人。在原子量子比特技术路线上的这一突破由Birkl教授领导的研究小组首次实现了。

《OPTICA》上的论文中还描述了随着激光源数量的进一步增加,将如何在短短几年内实现 10,000 个甚至更多的量子比特数量。

相关推荐
我的offer在哪里2 天前
九月技术奇点观察:当量子算力与 AI 认知同时突破临界点
人工智能·量子计算
机器学习之心4 天前
量子遗传算法是一种将量子计算原理与遗传算法相结合的智能优化算法,代表了进化计算的一个有趣分支
算法·量子计算
安当加密4 天前
如何设计量子密钥管理系统?——面向后量子时代的密钥管理架构与核心功能探讨
架构·量子计算
cyyt4 天前
深度学习周报(9.22~9.28)
深度学习·attention·量子计算
三年呀6 天前
量子机器学习深度探索:从原理到实践的全面指南
人工智能·深度学习·机器学习·量子计算
七牛云行业应用6 天前
量子计算技术全景:从硬件路线到AI融合
人工智能·量子计算
琼羽1096 天前
第十六周-基本量子3
量子计算
七牛云行业应用6 天前
GPT-5 撼动量子计算:AI 在科研领域的颠覆性应用
人工智能·gpt·量子计算·gpt5
云澈ovo7 天前
量子计算预备役:AI辅助设计的下一代算力架构
人工智能·架构·量子计算
大翻哥哥7 天前
Python 2025:量子计算编程的新前沿
量子计算