光子学,能否催生下一代计算革命?

研究和技术开发在光子计算领域正迅猛增长,其产品也逐渐融入市场。这一新兴的计算技术革命预计将对科学家和工程师的研究能力产生深远影响。

光子技术在加速大规模计算基础设施的数据处理速度方面展现出巨大的潜力,同时有可能显著降低网络及通讯的能耗。该技术预计将对高性能计算、人工智能、云计算、数据中心网络乃至量子计算等先进计算基础设施产生重大影响。

随着对高性能计算与人工智能系统的需求日增,性能瓶颈和能源效率问题逐渐成为科研人员和工程师面临的重大挑战,这些问题不仅可能限制应用的性能,还可能使得大规模计算的持续发展变得更加困难。

近年来,随着人工智能的兴起,硅光子供应商成为业界关注的焦点。这不仅因为对更快的互联技术需求日益增长,而且对初创公司而言,吸引投资成为关键。

2023年3月,牛津大学的衍生企业Lumai获得了110万英镑的英国创新智能补助金,以商业化其在全光网络训练和深度光学领域的成果,目的是实现更快、更高效的计算。

Lumai自2022年1月从牛津大学独立成立,致力于为下一代人工智能开发全光学神经网络。得益于这笔110万英镑的资助,Lumai正在开发一种先进的光学计算处理器,其信息传递和处理机制完全不依赖于电子技术。这笔资金是与牛津大学共同提供的,也是继先前从IP Group和Runa Capital处获得资助后的又一重要投资。

现有的基于晶体管的数字电子技术难以满足人工智能的发展潜力,特别是考虑到满足突破性人工智能模型如ChatGPT等的计算需求不断增长的情况。Lumai的计算平台能够实现高能效、超高速的并行处理,与当前基于晶体管的数字电子产品相比,其光神经网络的速度可提升1000倍,同时更加环保。

这笔投资将助力Lumai建立并推广其用于高性能计算和机器视觉的光学神经网络,并推动先进光学技术的发展。

Lightmatter的首席执行官Nick Harris表示:"人工智能是高性能计算的强大推手。在人工智能竞赛中不惜一切代价取胜,为光子学等技术提供了绝佳的成长环境。"

Lightmatter公司的Passage是一种硅光子中间件,旨在支持芯片到芯片和节点到节点的高速通信

使用Passage将8个计算芯片连接在一起

2023年12月,Lightmatter在其第二轮C轮融资中筹集了1.55亿美元,总融资额达到了4.2亿美元,使其成为独角兽公司。

然而,Lightmatter并非硅光子领域唯一一家快速成长的初创公司。早在2023年,另一家名为Celestial AI的公司为其硅光子互连技术筹集了1亿美元资金。类似于Lightmatter的Passage技术,Celestial的光子网络也实现了芯片间、封装间以及节点间的互连。

显然,硅光子行业的竞争者众多。这种竞争是市场所需,因为我们需要多种方法来提升带宽和处理能力。

高性能计算(HPC)和人工智能(AI)系统的发展依赖于能效的大幅提升。目前,世界上最大的超级计算机的能耗可高达20兆瓦,而且随着AI应用需求的不断增长,能源消耗预计将进一步增加。

对于高性能计算系统的提供者以及管理或运营HPC集群的公司而言,提高能效并非一个新议题。长期以来,业界一直致力于将超级计算的能耗控制在20兆瓦的目标范围内。尽管一些领先企业可能仅以微弱之差未能达到这一标准,但他们的尝试已明显展示了HPC领域在开发能源高效系统方面所取得的重大进步。

以"神威·太湖之光"超级计算机为例,2016年推出时,它是全球最强的计算系统之一。截至2022年11月的Top500榜单,该系统以93 PFlop/s(每秒千万亿次浮点运算)的峰值性能位列第7,功耗为15,371千瓦(约15.3兆瓦)。相比之下,2022年推出的LUMI系统性能几乎是"神威·太湖之光"的三倍,达到309 PFlop/s,但其功耗仅为6,016千瓦(6.0兆瓦),远远低于先前的水平。

此外,早在2022年,英伟达便展示了其未来采用光连接的GPU系统原型,这预示着向更高能效方向迈进的技术创新。

随着高性能计算(HPC)、云计算和人工智能(AI)技术的持续进步,越来越多的科学家和研究者正开始依赖这些先进的计算基础设施。云计算和人工智能市场的迅猛增长,伴随着对AI超级计算能力的需求不断上升,迫切需要采纳新策略,以增强这些技术的可持续性。

生物技术和制药等生命科学领域的关键市场正逐步采用AI进行医学图像的分类,助力新药物和治疗方法的发现。在工程领域,从传统的测试和验证模式转变为利用复杂的数字孪生技术进行全面数字验证和测试已成为趋势。此外,汽车行业也迫切需要大规模模型以支持自动驾驶的训练,以及在拓扑优化等应用中利用AI技术。数据密集型工作负载的增加进一步加剧了科学和工程领域对高效计算的需求。

光子技术的融合能够显著减少系统间数据传输的能耗。尽管这听起来可能微不足道,但AI模型的训练过程对数据的需求量巨大。

光子计算开辟了计算组件间数据传输和通信的新途径,极大提升了高性能计算的效率。在这个领域,一些先行者已经开始整合其技术,预计这些技术将被应用于未来的超级计算机中。

例如,Lightelligence,这是一个来自麻省理工学院的衍生公司,正在利用光子技术重塑AI计算领域。2021年,该公司推出了其首款完全集成的光学计算平台PACE(光子算术计算引擎)。PACE通过利用光的固有属性,在维持高吞吐量、低延迟和高能效的同时,能够为伊辛模型、最大切分和最小切分问题提供解决方案,其速度比当前顶级GPU快800倍以上。

在2021年对《麻省理工新闻》(MIT News)的一次采访中,LightIntelligence的首席执行官沈亦晨博士,分享了他对光学技术革新的洞见:"我们正在改变计算的根本方式,在历史的正确时刻迈出了这一步。我们坚信光学技术将成为下一代的计算平台,特别是在处理人工智能等线性运算任务时。"

PACE平台展现出了其在自动驾驶系统中的潜力,其性能在某些应用场景中已被证实超越高端GPU。"我们的芯片在完成决策任务上所需的时间仅为传统芯片的一小部分,这能让汽车内的AI系统更迅速地作出更准确的判断,大大提升驾驶的安全性。"沈亦晨解释道。

PACE的背后技术核心是一个集成了硅光子芯片和CMOS微电子芯片的64x64光学矩阵乘法器,这些芯片采用倒装封装技术结合在一起。PACE的光子芯片不仅采用了先进的三维封装技术,还整合了超过12,000个独立光子器件,其系统时钟频率达到1GHz,突显了其在高性能计算领域的技术先进性和应用潜力。

在2022年,惠普企业(HPE)与光子计算的新兴企业Ayar Labs缔结了一份跨多年的战略合作协议,旨在共同开发基于光I/O技术的硅光子解决方案,以提升计算系统和数据中心的网络性能。紧随其后,Ayar Labs从Boardman Bay Capital Management、惠普企业(HPE)、英伟达(Nvidia)及包括GlobalFoundries和英特尔资本在内的众多新老投资方那里获得了额外的1.3亿美元资金支持。

硅光子技术预计将增强网络功能,并满足高性能计算(HPC)、人工智能(AI)和云计算架构未来的需求,同时有潜力降低数据中心和大规模计算系统的能耗。

Ayar Labs的商业运营高级副总裁,雨果·萨利赫(Hugo Saleh)谈到了当前系统的挑战:"无论是在高性能计算还是分布式计算中,I/O的限制已成为一个现实问题。在高性能计算领域,这通常表现为所谓的'内存瓶颈',这并非指内存容量,而是指数据从内存DIMM移至CPU并返回的过程中的传输能力。GPU瓶颈也是一个常见的问题,涉及CPU与GPU之间、以及GPU与其内存之间的数据传输。"

萨利赫进一步阐释:"Ayar Labs的目标是彻底改变数据传输的物理基础,从依赖电力、电压和电流转向利用光子。我们的数据传输直接从芯片插座进行,而不是通过服务器后部的收发器或是中板光学器件。我们设计的芯片被置于封装内,紧邻CPU、内存、GPU或其他加速器,与主机ASIC无关。然后我们通过封装外部传输光子和光线,实现高速且低功耗的I/O操作。"

Ayar Labs在美国举办的2019年超级计算会议(SC19)上首次向外界展示了其创新技术。"我们带来了一个完备的测试平台,并在丹佛举办的2019年超级计算会上首次向高性能计算社区亮相了我们的技术。自那以后,我们已经公开宣布了两次与英特尔的合作项目。"萨利赫分享道,"因此,英特尔展示了一款集成了我们光子技术的FPGA,它能在更低功耗下传输大量数据。"

该技术预计将极大地提升未来高性能计算和人工智能系统的内存带宽。每个芯片组的性能相当于64个PCIe Gen 5通道,每秒能够提供高达2 TB的I/O性能。该系统利用了标准的硅制造技术和分解式多波长激光器,实现了高速、高密度的芯片到芯片通信,其功耗极低,仅在皮焦范围内。Ayar Labs与GlobalFoundries合作开发了这项技术,将其作为其单片硅光子平台的一部分。

萨利赫解释道:"我们与GlobalFoundries合作,开发出了一种独特的单片工艺,该工艺能够将电子和光学器件集成在同一芯片上。这与传统方法不同,后者通常需要单独的光学器件,我们的集成方法简化了为客户封装这些元件的流程,降低了功耗、成本和延迟。"

GlobalFoundries的GF Fotonix平台是行业内首个在300毫米硅晶圆上结合光子特性和300GHz级RF-CMOS技术的下一代单片平台。该工艺旨在实现规模化性能,将被用于开发光子计算和传感应用。Ayar Labs还协助GF开发了先进的电子光学工艺设计套件(PDK),该套件在2022年第二季度发布,并已集成进电子设计自动化(EDA)供应商的设计工具中。

GlobalFoundries Fotonix,领先的硅光子代工厂,用于光学和处理的协同封装

在2023年4月份,一个来自以色列的光量子计算创业公司宣布,得益于戴尔科技资本(DTC)的最新投资,其种子轮融资总额已达到2700万美元。Quantum Source致力于开发商业化的光量子计算机,并计划使用这笔1200万美元的新增资金扩大研发团队,实现关键的技术及性能里程碑。

光量子计算利用光子作为量子比特,Quantum Source通过一种创新方法产生光子和量子门,效率比现有最先进技术高五个数量级。

Quantum Source的联合创始人及首席执行官Oded Melamed分享了他的视角:"我们之所以创立Quantum Source,是因为我们坚信光量子技术是达成大规模容错量子计算机的最有效途径。我们的独特技术极大地增强了这些机器的可扩展性,这将是量子计算机商业成功的关键因素。来自戴尔科技资本这样的投资者的信任,使我们能够加速研究进度,推动整个量子计算领域的前进。"

成立于2021年的Quantum Source公司,是由半导体领域的资深专家和杰出物理学家共同组成的团队,目前致力于开发能高效实现大规模容错光量子计算机的关键技术。目前市面上的量子计算机虽然只具备几十到几百个量子比特,尽管它们代表了技术的重大突破,但这些系统的商业化应用尚未成熟。

戴尔技术资本的合伙人奥姆里·格林(Omri Green)表示:"戴尔技术资本致力于投资那些能推动行业前进的技术。我们认为量子计算拥有这种潜能。Quantum Source作为我们在量子领域的首笔投资,拥有实现我们愿景的团队。Oded和他的团队------由经验丰富的科学家和企业家组成,正致力于解决光量子计算中的核心挑战:可扩展性和容错能力。一旦这些问题得以解决,创新的可能性将是无限的。"

英国的ORCA Computing公司正在开发针对机器学习应用的光量子系统。ORCA在去年的融资中筹得1500万美元,并目前正在领导开发"量子数据中心"的研究项目。其他在光量子计算研究领域活跃的公司还包括加拿大的Xanadu和PsiQuantum,后者最近获得了900万英镑的投资,用于在英国建立一个研究机构,开发适用于大规模量子计算的高功率低温系统。

ORCA Computing的联合创始人兼CEO理查德·穆雷(Richard Murray)博士在接受伦敦帝国学院采访时谈到:"光作为一种高效且可扩展的资源,在量子计算的未来中将扮演重要角色。我们的目标是将光子系统带给今日的用户,以实现短期及长期的价值。"

最近一轮风险投资为ORCA带来了1500万美元(约1200万英镑)的资金,这将用于进一步开发其光量子计算系统及相关软件以满足未来的应用需求。这轮融资由章鱼风投(Octopus Ventures)领投,牛津科学企业(Oxford Science Enterprises)、Quantonation和Verve Ventures也参与了投资。

穆雷博士表示:"能够获得欧洲一些最具洞察力的量子与深度技术投资者的支持,我们感到非常高兴。他们的支持将加速ORCA在短期和长期量子系统开发方面的进程。"

参考链接:

[1]https://www.scientific-computing.com/article/can-photonics-deliver-next-breakthrough-research-computing-0

[2]https://www.nextplatform.com/2022/08/17/nvidia-shows-what-optically-linked-gpu-systems-might-look-like/

[3]https://www.nextplatform.com/2024/01/04/how-lightmatter-breaks-bandwidth-bottlenecks-with-silicon-photonics/

[4]https://www.semianalysis.com/p/globalfoundries-fotonix-the-leading

相关推荐
开发者每周简报20 分钟前
求职市场变化
人工智能·面试·职场和发展
AI前沿技术追踪33 分钟前
OpenAI 12天发布会:AI革命的里程碑@附35页PDF文件下载
人工智能
余~~1853816280040 分钟前
稳定的碰一碰发视频、碰一碰矩阵源码技术开发,支持OEM
开发语言·人工智能·python·音视频
galileo20161 小时前
LLM与金融
人工智能
DREAM依旧1 小时前
隐马尔科夫模型|前向算法|Viterbi 算法
人工智能
GocNeverGiveUp2 小时前
机器学习2-NumPy
人工智能·机器学习·numpy
B站计算机毕业设计超人3 小时前
计算机毕业设计PySpark+Hadoop中国城市交通分析与预测 Python交通预测 Python交通可视化 客流量预测 交通大数据 机器学习 深度学习
大数据·人工智能·爬虫·python·机器学习·课程设计·数据可视化
学术头条3 小时前
清华、智谱团队:探索 RLHF 的 scaling laws
人工智能·深度学习·算法·机器学习·语言模型·计算语言学
18号房客3 小时前
一个简单的机器学习实战例程,使用Scikit-Learn库来完成一个常见的分类任务——**鸢尾花数据集(Iris Dataset)**的分类
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·sklearn
feifeikon3 小时前
机器学习DAY3 : 线性回归与最小二乘法与sklearn实现 (线性回归完)
人工智能·机器学习·线性回归