近日,我院视觉智能感知与理解团队在多模态感知、模型轻量化与知识蒸馏等方向取得重要进展,并在IEEE TCSVT (IF: 11.1)、IEEE TMM (IF: 9.7)、IEEE TNNLS (IF: 8.9)、IEEE SMC-S (IF: 8.7)、IEEE TGRS (IF: 8.6)等顶级期刊发表系列论文。主要成果包括:1.多模态融合:提出Mamba-effective扩散蒸馏网络(MDNet)和HLMamba融合网络,有效提升RGB-热成像与遥感图像分析的效率与精度。2.知识蒸馏与轻量化:研发KDSNet-S*、HKDNet-S*、LNSNet-S* 等模型,在参数大幅压缩(最高超92%)的同时保持高性能。3.自适应感知:设计需求模态自适应机制,提出NDANet-S*、FCDENet等模型,显著增强复杂场景下的感知与分类能力。
视觉智能感知与理解团队一直致力于解决实际应用中的视觉感知难题,研究方向涵盖多模态融合、模型轻量化、自适应感知等多个前沿领域。团队注重理论与实践相结合,多项研究成果已在智能交通、机器人导航、智能物联网等场景中得到验证。团队始终坚持创新与实用并重的研究理念,在推动学术前沿的同时,也注重技术的实际应用价值,为智能系统的发展提供了重要支撑。未来,团队将继续探索更高效的视觉感知模型,进一步推动人工智能在复杂环境中的感知与理解能力,为智慧城市、智能交通等领域提供技术支撑。