华科/浙大团队Science子刊:光计算抛弃模拟乘法,用逻辑门跑神经网络

光计算为满足日益增长的计算需求提供了一条前景广阔的途径。然而,光模拟计算易受环境扰动影响,高度依赖数模转换器和模数转换器,并需要电子或光子非线性运算。尽管光数字计算缓解了部分问题,但其对人工、任务特定配置的依赖阻碍了更广泛的应用(如推理)。本文提出光逻辑卷积神经网络(OLCNN)的概念,展示了一种用于模式生成的1×3光逻辑卷积算子(OLCO),并验证了其在20 Gbit/s下的高速计算能力。随后实现2×2 OLCO 以执行三种图像边缘提取任务。通过扩展设计,构建了3×3 OLCO 的 OLCNN ,实现在 MNIST 数据集上达到四分类准确率95.1%的测试结果。通过将光逻辑器件与神经网络协同应用,本研究开创了人工智能领域高速、节能光硬件的逻辑驱动范式。

算力瓶颈下的新曙光

当摩尔定律逼近物理极限,传统电子芯片在功耗、延迟和发热方面的困境日益凸显。人工智能,尤其是大模型和实时视觉任务的爆发式增长,让"算力饥渴"成为整个行业的核心痛点。光计算,凭借其高带宽、低功耗、天然并行的优势,被视为后摩尔时代的"救星"之一。

然而,此前的光学神经网络(ONN)大多采用模拟计算范式------依赖数模/模数转换器(DAC/ADC)、易受环境扰动、且需要额外实现非线性激活函数。这些问题如同"阿喀琉斯之踵",制约着光计算从实验室走向实际部署。

近日,来自中国的研究团队在《Science Advances》上发表了一项突破性成果:光学逻辑卷积神经网络(OLCNN) 。他们另辟蹊径,用布尔逻辑运算彻底取代了传统的加权求和与模拟非线性激活,为高速、低功耗、高鲁棒性的光子AI计算开辟了一条全新道路。

核心突破:从"模拟"到"数字"的范式迁移

研究团队核心成员包括张文凯、李京澄、张世杰等,由周海龙、董建绩教授领衔。他们提出的OLCNN,其最根本的创新在于计算逻辑的颠覆

  • 传统模拟ONN:每个神经元做的是"加权和+非线性函数",类似于连续域内的乘加运算。这需要高精度DAC/ADC,且模拟信号易受噪声干扰。

  • OLCNN新范式 :所有操作都在二进制域 中进行。卷积核和神经元不再是做乘加,而是直接执行"与、或、非、异或"等布尔逻辑操作

这意味着,整个神经网络可以被看作一张巨大的、可编程的逻辑门电路网络。逻辑运算本身具有天然的非线性,因此无需额外激活函数 ;二进制数据极大降低了对精度的要求,1-bit比较器即可替代高精度ADC,显著降低了功耗与延迟。

技术实现:波长+空间联合编码,生成"逻辑最小项"

如何用光学硬件实现可编程的逻辑运算?团队祭出了"光学可编程逻辑阵列(PLA)"的绝活。

原理并不复杂,却非常巧妙:

  1. 联合编码 :利用光的波长空间两个维度进行编码。

  2. 生成最小项:通过级联的波长编码器(如延迟干涉仪DI)和空间编码器(如光开关),将n个二进制输入信号的所有 2n2n 种组合(即逻辑最小项)映射到不同的波长通道和空间通道上。

  3. 任意逻辑函数 :只需在输出端用波长选择开关(WSS)挑选并组合所需的最小项,即可实现任意逻辑运算。

上图来源:Zhang et al., Sci. Adv. 12, eaea9278 (2026) Fig.1

实验验证:从边缘提取到手写数字分类

研究团队在三种不同规模的平台上验证了OLCNN的可行性与扩展性:

1. 1×3 OLCO:高速模式生成(20 Gbit/s)

在铌酸锂(LNOI)平台上,团队构建了1×3光学逻辑卷积算子(OLCO)。他们成功演示了初等元胞自动机(ECA) 的演化------仅从一个活细胞开始,经过64次迭代,生成了复杂的时空图案。运算速度高达20 Gbit/s,展现了惊人的实时处理能力。

上图来源:Zhang et al., Sci. Adv. 12, eaea9278 (2026) Fig.2

2. 2×2 OLCO:三种图像边缘提取

在硅光(SOI)平台上,团队利用微环辅助的延迟干涉仪(MRR-assisted DI)构建了2×2 OLCO,支持16个波长通道。他们演示了三种逻辑边缘提取:

  • 水平边缘提取:Y=(I1I2)⊕(I3I4)Y=(I1​I2​)⊕(I3​I4​)

  • 垂直边缘提取:Y=(I1I3)⊕(I2I4)Y=(I1​I3​)⊕(I2​I4​)

  • 全方向边缘提取:Y=(I1⊕I4)+(I2⊕I3)Y=(I1​⊕I4​)+(I2​⊕I3​)

实验结果与模拟完全一致,证明了OLCO在图像预处理中的实用价值。

上图来源:Zhang et al., Sci. Adv. 12, eaea9278 (2026) Fig.4

3. 3×3 OLCNN:MNIST四分类准确率95.1%

最终,团队构建了完整的OLCNN,用于MNIST手写数字识别。他们将28×28图片压缩并二值化为9×9,采用两层3×3逻辑卷积核加全连接逻辑神经元的结构。

核心结果

  • 四分类(0/1/2/3) :测试准确率 96.15%

  • 四分类(4/5/6/7) :测试准确率 94.05%

  • 平均准确率:95.1%

即使面对十分类任务(0-9),经过网络深度扩展后,准确率也可达88.42%。考虑到输入图片经历了剧烈的压缩和二值化,这一成绩非常惊艳,有力证明了"低精度逻辑运算"在模式识别中的强大能力。

上图来源:Zhang et al., Sci. Adv. 12, eaea9278 (2026) Fig.5

深度见解:为何OLCNN意义非凡?

这篇工作不仅是一次技术演示,更代表了一种计算哲学的转变。我认为其核心价值体现在以下三点:

1. 真正的"数字友好型"光计算

以往的光计算总被诟病"必须配一堆昂贵的DAC/ADC"。OLCNN将数据彻底二值化,消除了对DAC的需求 ,ADC也降级为1-bit比较器。这不仅大幅降低了接口功耗与延迟,更让光学硬件与主流电子数字逻辑无缝衔接。据论文测算,OLCO的能效可达5.2 TOPS/W,较传统模拟光卷积提升了一个数量级以上。

2. 天生的鲁棒性与可扩展性

模拟系统惧怕噪声------一个微小的温度波动或制造误差,就可能让加权结果偏离预期。而逻辑门是离散的、有阈值的。只要噪声不超过逻辑电平的判决策限,结果就是正确的。这种"数字免疫"特性,使得OLCNN在规模化集成时具有天然优势。

3. 激活函数"免费"

非线性激活函数是神经网络表达能力的核心,但在光域中实现非线性极其困难且低效。OLCNN的逻辑门本身就是非线性的,完全省去了激活函数模块,进一步简化了系统,降低了损耗。

展望与挑战

当然,OLCNN目前仍处于概念验证阶段。其挑战在于:

  • 精度与效率的权衡:极端二值化会损失信息,对于更复杂的任务(如高分辨率自然图像)可能需要更精细的编码策略。

  • 规模扩展:随着输入比特数增加,所需波长/空间通道数呈指数增长(2m+n2m+n)。论文中3×3算子已用到256波长,如何更高效地复用资源是工程难题。

但不可否认,这项研究为光计算指出了一条极具潜力的新路径------不是用光去模仿电的"模拟乘加",而是发挥光的并行性去执行"大规模逻辑运算"。在边缘计算、物联网、低功耗AI推理等场景中,OLCNN有望率先落地。

当世界都在追逐更高精度的浮点运算时,这群研究者反其道而行,用最简单的"0和1"叩开了光计算实用化的大门。或许,有时候"退一步"的智慧,反而能看见更广阔的海阔天空。


论文信息 :Zhang et al., Optical logic convolutional neural network, Science Advances, Vol 12, Issue 9, 2026. DOI: 10.1126/sciadv.aea9278

Science子刊新作:20Gbit/s边缘提取、95%手写识别:光学逻辑卷积神经网络首秀即惊艳

相关推荐
扬帆破浪1 天前
免费开源的WPS AI插件 察元AI助手:installGlobalErrorLogger:启动写盘与 Vue 错误钩子
人工智能·开源·ai编程·wps
配奇1 天前
卷积神经网络CNN
人工智能·神经网络·cnn
kishu_iOS&AI1 天前
深度学习 —— 正则化&批量归一化BN
人工智能·pytorch·python·深度学习
科技小花1 天前
测评|2026五大数据治理平台横向对比:谁在定义数据中台的“智能引擎”?
大数据·数据库·人工智能·数据治理·数据中台
Lsk_Smion1 天前
【类增量学习之2025ICCV】TUNA : 让AI像搭积木一样学习新知识,TUNA的适配器融合之道
人工智能·深度学习·机器学习·论文笔记
沫儿笙1 天前
弧焊机器人智能节气设备
人工智能·机器人
前端不太难1 天前
如何设计 Agent 的“最小权限原则”
人工智能·状态模式·agent
JAVA学习通1 天前
AI 工作流编排系统的任务拆分、重试与观测:2026年工程实践深度解析
java·人工智能·spring
cl131413141 天前
烟气测量格恩朗流量计选型指南
大数据·网络·人工智能·产品运营
xixixi777771 天前
国内首家“AI+量子”实体公司成立:量智开物发布“追风”“扁鹊”,开启下一代计算文明大门
大数据·网络·人工智能·安全·ai·科大讯飞·量子计算