光计算为满足日益增长的计算需求提供了一条前景广阔的途径。然而,光模拟计算易受环境扰动影响,高度依赖数模转换器和模数转换器,并需要电子或光子非线性运算。尽管光数字计算缓解了部分问题,但其对人工、任务特定配置的依赖阻碍了更广泛的应用(如推理)。本文提出光逻辑卷积神经网络(OLCNN)的概念,展示了一种用于模式生成的1×3光逻辑卷积算子(OLCO),并验证了其在20 Gbit/s下的高速计算能力。随后实现2×2 OLCO 以执行三种图像边缘提取任务。通过扩展设计,构建了3×3 OLCO 的 OLCNN ,实现在 MNIST 数据集上达到四分类准确率95.1%的测试结果。通过将光逻辑器件与神经网络协同应用,本研究开创了人工智能领域高速、节能光硬件的逻辑驱动范式。
算力瓶颈下的新曙光
当摩尔定律逼近物理极限,传统电子芯片在功耗、延迟和发热方面的困境日益凸显。人工智能,尤其是大模型和实时视觉任务的爆发式增长,让"算力饥渴"成为整个行业的核心痛点。光计算,凭借其高带宽、低功耗、天然并行的优势,被视为后摩尔时代的"救星"之一。
然而,此前的光学神经网络(ONN)大多采用模拟计算范式------依赖数模/模数转换器(DAC/ADC)、易受环境扰动、且需要额外实现非线性激活函数。这些问题如同"阿喀琉斯之踵",制约着光计算从实验室走向实际部署。
近日,来自中国的研究团队在《Science Advances》上发表了一项突破性成果:光学逻辑卷积神经网络(OLCNN) 。他们另辟蹊径,用布尔逻辑运算彻底取代了传统的加权求和与模拟非线性激活,为高速、低功耗、高鲁棒性的光子AI计算开辟了一条全新道路。
核心突破:从"模拟"到"数字"的范式迁移
研究团队核心成员包括张文凯、李京澄、张世杰等,由周海龙、董建绩教授领衔。他们提出的OLCNN,其最根本的创新在于计算逻辑的颠覆。
-
传统模拟ONN:每个神经元做的是"加权和+非线性函数",类似于连续域内的乘加运算。这需要高精度DAC/ADC,且模拟信号易受噪声干扰。
-
OLCNN新范式 :所有操作都在二进制域 中进行。卷积核和神经元不再是做乘加,而是直接执行"与、或、非、异或"等布尔逻辑操作。
这意味着,整个神经网络可以被看作一张巨大的、可编程的逻辑门电路网络。逻辑运算本身具有天然的非线性,因此无需额外激活函数 ;二进制数据极大降低了对精度的要求,1-bit比较器即可替代高精度ADC,显著降低了功耗与延迟。
技术实现:波长+空间联合编码,生成"逻辑最小项"
如何用光学硬件实现可编程的逻辑运算?团队祭出了"光学可编程逻辑阵列(PLA)"的绝活。
原理并不复杂,却非常巧妙:
-
联合编码 :利用光的波长 和空间两个维度进行编码。
-
生成最小项:通过级联的波长编码器(如延迟干涉仪DI)和空间编码器(如光开关),将n个二进制输入信号的所有 2n2n 种组合(即逻辑最小项)映射到不同的波长通道和空间通道上。
-
任意逻辑函数 :只需在输出端用波长选择开关(WSS)挑选并组合所需的最小项,即可实现任意逻辑运算。
上图来源:Zhang et al., Sci. Adv. 12, eaea9278 (2026) Fig.1
实验验证:从边缘提取到手写数字分类
研究团队在三种不同规模的平台上验证了OLCNN的可行性与扩展性:
1. 1×3 OLCO:高速模式生成(20 Gbit/s)
在铌酸锂(LNOI)平台上,团队构建了1×3光学逻辑卷积算子(OLCO)。他们成功演示了初等元胞自动机(ECA) 的演化------仅从一个活细胞开始,经过64次迭代,生成了复杂的时空图案。运算速度高达20 Gbit/s,展现了惊人的实时处理能力。
上图来源:Zhang et al., Sci. Adv. 12, eaea9278 (2026) Fig.2
2. 2×2 OLCO:三种图像边缘提取
在硅光(SOI)平台上,团队利用微环辅助的延迟干涉仪(MRR-assisted DI)构建了2×2 OLCO,支持16个波长通道。他们演示了三种逻辑边缘提取:
-
水平边缘提取:Y=(I1I2)⊕(I3I4)Y=(I1I2)⊕(I3I4)
-
垂直边缘提取:Y=(I1I3)⊕(I2I4)Y=(I1I3)⊕(I2I4)
-
全方向边缘提取:Y=(I1⊕I4)+(I2⊕I3)Y=(I1⊕I4)+(I2⊕I3)
实验结果与模拟完全一致,证明了OLCO在图像预处理中的实用价值。
上图来源:Zhang et al., Sci. Adv. 12, eaea9278 (2026) Fig.4
3. 3×3 OLCNN:MNIST四分类准确率95.1%
最终,团队构建了完整的OLCNN,用于MNIST手写数字识别。他们将28×28图片压缩并二值化为9×9,采用两层3×3逻辑卷积核加全连接逻辑神经元的结构。
核心结果:
-
四分类(0/1/2/3) :测试准确率 96.15%
-
四分类(4/5/6/7) :测试准确率 94.05%
-
平均准确率:95.1%
即使面对十分类任务(0-9),经过网络深度扩展后,准确率也可达88.42%。考虑到输入图片经历了剧烈的压缩和二值化,这一成绩非常惊艳,有力证明了"低精度逻辑运算"在模式识别中的强大能力。
上图来源:Zhang et al., Sci. Adv. 12, eaea9278 (2026) Fig.5
深度见解:为何OLCNN意义非凡?
这篇工作不仅是一次技术演示,更代表了一种计算哲学的转变。我认为其核心价值体现在以下三点:
1. 真正的"数字友好型"光计算
以往的光计算总被诟病"必须配一堆昂贵的DAC/ADC"。OLCNN将数据彻底二值化,消除了对DAC的需求 ,ADC也降级为1-bit比较器。这不仅大幅降低了接口功耗与延迟,更让光学硬件与主流电子数字逻辑无缝衔接。据论文测算,OLCO的能效可达5.2 TOPS/W,较传统模拟光卷积提升了一个数量级以上。
2. 天生的鲁棒性与可扩展性
模拟系统惧怕噪声------一个微小的温度波动或制造误差,就可能让加权结果偏离预期。而逻辑门是离散的、有阈值的。只要噪声不超过逻辑电平的判决策限,结果就是正确的。这种"数字免疫"特性,使得OLCNN在规模化集成时具有天然优势。
3. 激活函数"免费"
非线性激活函数是神经网络表达能力的核心,但在光域中实现非线性极其困难且低效。OLCNN的逻辑门本身就是非线性的,完全省去了激活函数模块,进一步简化了系统,降低了损耗。
展望与挑战
当然,OLCNN目前仍处于概念验证阶段。其挑战在于:
-
精度与效率的权衡:极端二值化会损失信息,对于更复杂的任务(如高分辨率自然图像)可能需要更精细的编码策略。
-
规模扩展:随着输入比特数增加,所需波长/空间通道数呈指数增长(2m+n2m+n)。论文中3×3算子已用到256波长,如何更高效地复用资源是工程难题。
但不可否认,这项研究为光计算指出了一条极具潜力的新路径------不是用光去模仿电的"模拟乘加",而是发挥光的并行性去执行"大规模逻辑运算"。在边缘计算、物联网、低功耗AI推理等场景中,OLCNN有望率先落地。
当世界都在追逐更高精度的浮点运算时,这群研究者反其道而行,用最简单的"0和1"叩开了光计算实用化的大门。或许,有时候"退一步"的智慧,反而能看见更广阔的海阔天空。
论文信息 :Zhang et al., Optical logic convolutional neural network, Science Advances, Vol 12, Issue 9, 2026. DOI: 10.1126/sciadv.aea9278