(内容来自四川大学计算机学院官方网站)
2025年5月18日,哈尔滨工业大学(深圳)计算机学院/计算与智能研究院陈科海教授应邀于我院进行交流访问,并在望江校区基础教学大楼B302为我院师生带来了一场精彩的学术报告,报告的主题为“大模型的可信推理”。
陈科海,哈尔滨工业大学(深圳)计算机学院/计算与智能研究院教授,博士生导师,国家级青年人才。2024年获“钱伟长中文信息处理科学技术奖”科技进步一等奖,2022年获北京市科技进步二等奖,2020年获中国中文信息学会“优秀博士学位论文”奖,主要研究方向为大模型与自然语言处理、智能体、多模态、可信推理的跨领域研究,在ACL、EMNLP、AAAI、TASLP等国际会议和期刊发表论文60余篇。曾担任自然语言处理国际会议ACL、EMNLP、NAACL等领域主席、人工智能国际会议AAA1、ICAI资深程序委员和ICNLP-AACL-2023研讨会主席。在研主持多项国家、省市科研项目。

随着大模型在医疗、金融、教育等关键领域的深入应用,其推理能力不断增强的同时,也暴露出一系列现实挑战。其中,幻觉生成问题频发,以及模型安全性与实用性之间的矛盾,已逐渐成为制约大模型技术大规模落地的核心瓶颈。针对这一热点问题,在本次讲座中,陈教授围绕“大模型的可信推理”展开深入探讨,分享了多项前沿研究成果。
报告聚焦于如何提升大模型在复杂环境中的推理准确性与安全可控性,从多个角度展开深入剖析。在知识增强推理方面,团队提出了记忆增强的查询重构方法,有效缓解因知识缺失导致的生成幻觉。在模型内在安全方面,陈教授分享了团队基于内在安全表征的奖励模型设计,通过引导模型生成过程中的自我审查机制,增强其识别与规避有害内容的能力。此外,报告还重点讨论了安全效用平衡策略,强调在保障安全合规的前提下,保持模型输出的丰富性与实用性。团队进一步提出基于GuidelineLLM的生成控制方法,能够在推理过程中自动对敏感话题进行识别和警示,提升用户交互的安全感。最后,报告介绍了团队在安全数据合成方面的工作,通过构建可控、高质量的数据资源,为模型训练与评估提供更坚实的基础。本次报告不仅展示了大模型推理可信性构建的系统性方法与技术路径,也为实际应用中如何提升模型的可靠性与可控性提供了有力参考,对促进人工智能技术安全、稳健地落地应用具有重要意义。
报告结束后,陈教授与在场师生进行了深入的学术交流,并对提出的问题结合实例进行了详细解答,现场学术气氛浓厚,我院师生受益匪浅。
(记者团:蔡雨鑫)
计算机学院(软件学院、智能科学与技术学院)
2025年5月18日