|
我院4项成果被人工智能顶级会议NeurIPS 2025录用
作者:
发布日期:2025-09-24
浏览次数:
近日,我院4项研究成果被中国计算机学会(CCF)推荐的A类国际顶级学术会议NeurIPS 2025(The Thirty-Ninth Annual Conference on Neural Information Processing Systems,简称NeurIPS 2025)录用。NeurIPS是人工智能与机器学习领域最具影响力的顶级国际会议之一,会议涵盖深度学习、计算机视觉、自然语言处理、强化学习等多个重要研究方向,在学术界与工业界均享有极高声誉。本次会议将于2025年11月30日至12月7日在美国圣地亚哥举行。
成果一:IDOL: Meeting Diverse Distribution Shifts with Prior Physics for Tropical Cyclone Multi-Task Estimation 作者:严涵婷,穆攀,张诗琪,朱宇超,张敬林,白琮(通讯) 简介:该成果为我院视觉所白琮教授团队的研究成果,为AI for Meteorology领域的台风多任务估计方向的最新研究进展。论文的第一作者为博士生严涵婷,通讯作者为白琮教授,共同作者包括穆攀老师等。 该论文提出了一种面向台风属性估计的身份分布导向的物理不变学习框架(IDOL)。针对现有方法在分布外场景下泛化性差的问题,IDOL通过引入身份约束结合物理先验知识,有效调节特征空间分布,从而缓解由复杂环境场景带来的分布偏移。具体而言,该方法利用台风的先验风场模型和台风暗相关知识构建任务共享与任务特定的身份表示,捕捉任务依赖关系与台风的物理不变性,实现对风速、气压、内核与外核尺度等多属性的稳健估计。实验证明,IDOL在多个数据集和任务上均显著优于现有方法,展现出优秀的台风估计能力,验证了基于物理先验的身份约束能够有效提升台风估计的可靠性与泛化能力。
成果二:Solving Partial Differential Equations via Radon Neural Operator 作者:陆文彬,陈奕涵,许骏楠,李卫,朱军伟,郑建炜(通讯) 简介:该成果为我院智能系统所郑建炜教授团队的研究成果,是AI for PDE领域以神经算子求解偏微分方程的最新研究进展。论文的第一作者为郑建炜教授指导的本科生陆文彬,通讯作者为郑建炜教授,共同作者包括我院硕士生陈奕涵、许骏楠、朱军伟,我院博士生李卫。 该论文提出了一种基于Radon变换的新型神经算子——Radon神经算子(RNO),用于高效求解偏微分方程(PDE)。该方法通过将输入数据投影到sinogram域,实现了从多维空间到降维空间的转换,同时紧密贴合PDE的本征空间。设计了一种角度重加权技术,通过分析不同角度对整体空间的贡献差异,为每个角度分配不同的权重,从而更有效地解决PDE问题。此外,引入了sinogram域卷积层,该层在固定的θ-网格上操作,与PDE空间的分辨率解耦,从而保证了离散不变性。理论上,证明了RNO满足双Lipschitz强单调性,这一性质在微分同胚下保证了离散化不变性,避免了拓扑障碍的引入。通过广泛的实验,RNO在多个标准PDE基准测试中取得了新的最佳成绩,并在泛化性能上表现出色。这些结果表明,RNO不仅在精度上超越了现有方法,还在处理不同分辨率数据时展现出强大的适应性。
成果三:SPOT-Trip: Dual-Preference Driven Out-of-Town Trip Recommendation 作者:刘璎辉,缪浩,沈国江,赵艳,孔祥杰(通讯),Ivan Lee 简介:该成果为我院智能系统研究所沈国江教授团队的研究成果,是兴趣点推荐领域以偏好表征建模用户旅程行为的最新研究进展。论文的第一作者为沈国江教授指导的博士生刘璎辉,通讯作者为我院孔祥杰教授,共同作者包括沈国江教授,香港理工大学缪浩副教授,电子科技大学赵艳教授以及南澳大利亚大学Ivan Lee教授。 该论文提出了一种名为SPOT-Trip的出城旅行推荐框架,它通过显式建模用户的静态与动态偏好来克服稀疏签到数据的挑战。该方法首先构建基于兴趣点属性的知识图谱以增强语义建模,从而实现静态偏好刻画;随后利用神经常微分方程结合时间点过程来捕捉用户动态偏好的连续演化;最后通过静动融合模块将两类偏好统一建模,实现更加有效的推荐。
成果四:Data Efficient Adaptation in Large Language Models via Continuous Low-Rank Fine-Tuning 作者:韩笑,赵子墨,王婉玉,王茂林,刘子韬,常毅,赵翔宇(通讯) 简介:该成果为我院智能系统所韩笑老师与香港城市大学赵翔宇教授团队、暨南大学广东智慧教育研究院刘子韬教授、吉林大学人工智能学院常毅教授合作的研究成果,是大模型在持续学习领域研究的最新研究进展。 该论文提出了一种持续低秩微调下的高效数据大模型适配器方法(DEAL),旨在提高大规模语言模型(LLM)在不断学习新任务时的数据效率和模型性能。传统的微调方法在持续学习新任务时常常面临灾难性遗忘和数据效率低下的问题,而DEAL结合了低秩适应(LoRA)和连续微调策略,通过创新的小波核知识保持模块和受控知识更新模块,成功缓解了这些问题。实验表明,DEAL在多个基准数据集上相较于其他方法取得了显著的性能提升,尤其在保持任务特定的知识同时提高了计算资源的利用效率。此外,DEAL通过有效管理计算资源,在长任务序列中展示了强大的扩展性和鲁棒性。 |