5G光网络新突破:<Light: Science Applications>报道可适应环境扰动的DRC实时校准技术
前言摘要
近日,国际顶尖光学期刊《Light: Science & Applications》刊登了一项来自中国国防科技大学研究团队的重要成果。该团队由姜天教授、张军教授和郝浩教授领衔,成员包括严秋全、欧阳灏(共同一作)等研究人员。他们提出了一种创新的深度强化学习校准(Deep Reinforcement learning-based Calibration, DRC)方法,成功解决了多波长光学信息处理系统中的关键瓶颈问题——由制造、传输和环境因素引起的频率选择性响应失真。
核心内容
1. 研究背景
多波长光信息处理系统(如光学神经网络、宽带信号处理器)因低能耗、高带宽等优势被广泛应用,但实际中常受频率选择性响应(如器件制造缺陷、环境干扰)影响,导致计算误差。
传统校准方法(如模型驱动或优化算法)依赖复杂建模或迭代效率低,难以适应动态环境。
2. 创新方法
深度强化学习校准(DRC):受深度确定性策略梯度(DDPG)启发,DRC通过实时与环境交互学习最优校准策略,无需精确建模即可适应不同系统(如色散补偿光纤、微环谐振器阵列、马赫-曾德尔干涉仪阵列)。
实验验证:在三类系统中,DRC仅需21次迭代即实现收敛,显著优于遗传算法(GA)、随机并行梯度下降(SPGD)和比例-积分-微分(PID)等传统方法。
3. 性能优势
精度提升:DCF系统输出误差降低78%,MRR阵列方差降至3.89×10⁻⁴,MZI阵列相对误差减少85.4%。
泛化能力:可适应振动、温湿度变化等环境扰动,适用于光学卷积计算加速、光网络路由等场景。
图1:基于色散补偿光纤(DCF)系统的校准架构与结果。
(a) 展示了校准链路。
(b) 呈现了克尔光频梳的封装芯片照片。
(c) 显示了系统中使用的由克尔光频梳生成的50条光学梳齿。
(d) 展示了使用具有不同梳齿数量的激光光源时,四种校准算法所需的迭代次数。
(e)和(f)分别展示了使用20条梳齿和50条梳齿作为激光光源时,基于DCF的系统在应用DRC校准前和校准后的输出结果对比。
图2:基于微环谐振器(MRR)阵列系统的校准架构与结果。
(a) 展示了3×3MRR系统的校准链路。
(b) 展示了应用于不同MRR阵列系统的各种校准算法所需的迭代次数。左上角小插图展示了3×3MRR阵列芯片及其封装芯片的照片。
(c)和(d)分别展示了在校准过程中,采用DRC和PID校准算法时,不同微环谐振器的输出结果。
图3:基于马赫-曾德尔干涉仪(MZI)阵列系统的校准架构与结果。
(a) 展示了MZI阵列芯片的照片。
(b)–(d) 分别展示了在校准过程中,采用DRC、GA和SPGD校准算法时,MZI阵列芯片的输出结果。
(e) 描绘了MZI阵列系统的校准链路。
图4:基于不同多波长系统构建的神经网络模型在不同校准误差下的分类精度对比。
(a) 展示了基于不同光学卷积单元的神经网络架构。
(b)–(d) 分别展示了使用基于DCF系统、基于MRR系统和基于MZI系统构建的神经网络,在应用不同算法校准后的分类精度。
图5:多波长系统中校准过程的流程图。
黄色模块代表系统的组成部分,数字表示校准步骤的先后顺序。
结语
国防科技大学团队的这项研究,巧妙地运用人工智能前沿技术——深度强化学习,攻克了多波长光学信息处理中的核心校准难题。其提出的DRC方法以“21次迭代”的高效率和“误差直降85%”的高精度,为未来高速、低功耗的光计算芯片和光信号处理系统的实用化铺平了道路。这不仅是光子学与人工智能融合的典范,也预示着智能光学系统自主优化新时代的到来。
Doi:https://doi.org/10.1038/s41377-025-01846-6
【注】:小编水平有限,若有误,请联系修改;若侵权,请联系删除!