特邀报告

大模型推理能力的评测基准与思考

invited

报告讲者:胡事民 院士(清华大学)

报告时间:11月1日 9:00-9:50

报告题目:大模型推理能力的评测基准与思考

报告摘要:以大模型和内容生成为代表的新一代人工智能技术发展迅猛,对科学研究、工程研发和经济社会发展都产生了巨大的影响。以DeepSeek为代表的高性能、低成本开源模型的涌现,正推动大模型技术在全球范围内普及与落地应用。然而,大模型的开发与应用仍面临诸多挑战:一方面,传统评测基准已趋饱和,亟需构建新一代评估体系以牵引技术发展;本报告将介绍清华大学计图团队在大模型复杂推理(Reasoning)能力和视觉推理能力评测基准的构建、推理新机制的探索、大模型国产自主生态、大模型应用方面的一些探索和思考。

个人简介:胡事民,中国科学院院士,清华大学计算机科学与技术系教授。主要研究方向为计算机图形学与人工智能等,在ACM TOG/SIGGRAPH、IEEE TPAMI、IEEE TVCG、IEEE TIP、 IEEE CVPR等重要刊物和国际会议上发表论文100余篇,带领团队研制并开源了深度学习框架—计图(Jittor) ,以第一完成人获国家自然科学奖二等奖、国家技术发明奖二等奖、国家科技进步奖二等奖各1项,并获得全国创新争先奖和中国计算机学会“王选奖”。现为任中国计算机学会副理事长,担任Computational Visual Media主编、计算机辅助设计与图形学学报主编、Fundamental Research副主编以及CAD、JCST等多个期刊的编委。

大模型目前的几个关键问题

invited

报告讲者:文继荣 教授(中国人民大学)

报告时间:11月1日 9:50-10:30

报告题目:大模型目前的几个关键问题

报告摘要:去年推理/慢思考模型的出现大大提升了大模型的复杂推理能力,大模型头上最大的一块乌云得到了部分消弭。然而,在通往AGI的道路上,我们尚有一些关键的问题需要深入探究和解决,本报告将分享我的相关思考。

个人简介:文继荣,教授,中国人民大学高瓴人工智能学院执行院长,曾任微软亚洲研究院高级研究员和互联网搜索与挖掘组主任。入选国家高层次人才计划、北京市卓越青年科学家计划等。长期从事人工智能领域的研究工作,至今已在国际著名学术会议和期刊上发表论文500余篇,论文总计被引用50000余次,H-Index为103。近年来专注大模型的研发,带领团队研发了第一个中文多模态大模型“文澜”、有自主知识产权的“玉兰”系列大模型、第一个开源扩散大语言模型LLaDA等。担任中央统战部党外知识分子建言献策专家组成员、北京市第十四届政协常委、中国计算机学会常务理事等。

人性学原理与音乐的生成过程 从“智能”到“人工”的路径思考

invited

报告讲者:周海宏 教授(中央音乐学院)

报告时间:11月1日 10:50-11:30

报告题目:人性学原理与音乐的生成过程 从“智能”到“人工”的路径思考

报告摘要:当前主流人工智能(特别是数据驱动的深度学习范式)的核心目标之一,在于实现对人类智能的特定功能进行模拟、延伸与增强。因此,深刻理解人类认知与思维的核心机制(如感知、学习、推理、创造、情感等),对于突破当前人工智能技术在鲁棒性、可解释性、常识推理及创造性生成等方面面临的瓶颈,具有潜在的、甚至可能是关键性的指导意义。 以海量数据驱动的统计学习为核心的当前主导技术路线取得了显著成就。其本质在于通过学习训练数据中蕴含的复杂统计模式与关联关系,从而模拟出符合统计分布规律的人类行为输出或成果。然而,以“人工智能幻觉”为代表的错误输出现象,持续警示着该路径与人类智能的内在运作模式 存在根本差异。这一主要侧重于数据统计模式而非显式建模人类内部认知过程(如符号推理、因果机制、心理表征构建)的技术路线,在知识生成、可靠推理等对内在认知机制要求较高的领域,凸显出其应用局限与可靠性挑战。这提示我们,有必要重新审视并深化对人类认知基本原理的研究,为AI发展提供更坚实的认知科学基础。 早期基于知识工程与符号逻辑推理的“专家系统”在知识获取、鲁棒性及普适性方面遭遇瓶颈,促使研究重心转向了数据驱动的统计学习范式。统计学习在感知、模式识别等领域的巨大成功,某种程度上降低了对深入解析人类底层认知机制作为直接建模基础的迫切需求,也在客观上削弱了部分研究者对认知科学基础研究驱动AI发展的持续投 入热情。 作为一位聚焦于音乐认知与创造的心理学研究者,本文尝试从人类认知与心理机制的原理出发,以构建一个整合性理论框架的愿景,梳理和整合相关心理学研究成果,呈现一个关于心理活动基本过程的模型框架。本文将以音乐创作这一特定认知活动为例,探讨基于对人类心理过程理解的视角,对人工智能(特别是创造性AI)发展路径的一些初步思考。

个人简介:周海宏,中央音乐学院教授,博士生导师,音乐心理学、美学、教育学家。1963年6月27日出生于辽宁省沈阳市。长年从事音乐审美与教育心理学的研究与教学工作,成就卓著,对哲学、美学、人格与动机心理学有深入的研究。全国音乐心理学学会副会长,国家艺术教育委员会常委、中国文艺评论家协会副主席,全国中小学美育教学指导委员会副主任委员,中国教育学会专家委员会委员会。中国教育学会第九届理事会学术委员会委员。曾任中央音乐学院副院长,国家教育考试指导委员会委员,教育部高等学校教学指导委员会音乐舞蹈委员会副主任委员,《义务教育艺术课程标准.音乐》(2022版)审查组组长,《普通高中音乐课程标准》(2024版)修订组组长。《音乐类本科专业省级统一考试》方案制订组组长(执笔人), 2024版人民教育出版社义务教育教科书《艺术.音乐》(1~9年级)执行主编。

大模型时代机器学习理论

invited

报告讲者:王立威 教授(北京大学)

报告时间:11月1日 14:00-14:40

报告题目:大模型时代机器学习理论

报告摘要:经典机器学习理论关于表示、优化、泛化三方面的研究在大模型时代遇到严峻挑战。由于训练中数据的单次(或少次)使用方式,传统优化与泛化问题在大模型中几乎不再存在。另一方面,由于思维链的广泛应用,大模型的表示问题也已不再限于神经网络本身。本报告将探讨大模型中机器学习的新问题新理论以及相应方法。具体来说,我将讨论思维链对于模型表示的作用于意义,长度泛化问题与解决方法,模型参数与token的统一。

个人简介:王立威 北京大学智能学院教授。长期从事机器学习研究。在深度学习与大模型理论算法方面取得一系列成果。在机器学习国际权威期刊会议发表高水平论文200余篇。担任人工智能权威期刊TPAMI编委。获机器学习领域旗舰会议NeurIPS 2024 最佳论文奖,ICLR 2023杰出论文奖,及ICLR 2024杰出论文提名奖。

Can Scientists and Machines Truly Cooperate?

invited

报告讲者:Iryna Gurevych(Professor at Technical University of Darmstadt)

报告时间:11月1日 14:40-15:20

报告题目:Can Scientists and Machines Truly Cooperate?

报告摘要:How can AI and LLMs facilitate the work of scientists in different stages of the research process? Can technology even make scientists obsolete? The role of AI and Large Language Models (LLMs) in science as the target application domain has recently been rapidly growing. This includes assessing the impact of scientific work, facilitating writing and revising manuscripts as well as intelligent support for manuscript quality assessment, peer-review and scientificdiscussions. The talk will illustrate such methods and models using several tasks from the scientific domain. We argue that while AI and LLMs can effectively support and augment specific steps of the research process, expert-AI collaboration may be a more promising mode for complex research tasks.

个人简介:Iryna Gurevych is Professor of Ubiquitous Knowledge Processing in the Department of Computer Science at the Technical University of Darmstadt in Germany. -She also is an adjunct professor at MBZUAI in Abu-Dhabi, UAE, and an affiliated professor at INSAIT in Sofia, Bulgaria. She is widely known for fundamental contributions to natural language processing (NLP) and machine learning. Professor Gurevych is a past president of the Association for Computational Linguistics (ACL), the leading professional society in NLP. Her many accolades include being a Fellow of the ACL, an ELLIS Fellow, and the recipient of an ERC Advanced Grant. Most recently, she has received the 2025 Milner award of the British Royal Society for her major contributions to NLP and artificial intelligence that combine deep understanding of human language and cognitive faculty with the latest paradigms in machine learning.

The Reasoning Paradox in Large Language Models

invited

报告讲者:Yulan He(Professor at King’s College London)

报告时间:11月1日 15:20-16:00

报告题目:The Reasoning Paradox in Large Language Models

报告摘要:As large language models (LLMs) become more capable at reasoning, a paradox emerges: improving their reasoning can make them simultaneously more intelligent and less trustworthy. This talk will explore this paradox from three areas. First, we address the problem of faithfulness. Through a probabilistic inference framework that leverages task-specific and lookahead rewards, and through Concise-SAE, a training-free method for identifying and editing instruction-relevant neurons, we show how to ensure that LLMs’ explanations and decisions remain grounded in input context and intent. Next, we address efficiency in reasoning. NOVER (No-Verifier Reinforcement Learning) enables incentive-based reasoning without requiring external verifiers, while CODI (Continuous Chain-of-Thought via Self-Distillation) compresses explicit natural language reasoning into a continuous latent space, achieving efficiency and robustness without compromising accuracy. Finally, we delve into the tension between capability and alignment. Through the discovery of Reasoning-Induced Misalignment (RIM), we reveal how improving reasoning capabilities can negatively impact model alignment and safety. Our studies outline a trajectory toward trustworthy reasoning models.

个人简介:Yulan He is a Professor in Natural Language Processing at King’s College London.She is currently holding a prestigious 5-year UKRI Turing AI Fellowship. Her recent research focused on addressing the limitations of Large Language Models (LLMs), aiming to enhance their reasoning capabilities, robustness, and explainability. She has published nearly 300 papers on topics such as self-evolution of LLMs, mechanistic interpretability, and LLMs for educational assessment and health. She received several prizes and awards for her research, including an SWSA Ten-Year Award, a CIKM Test-of-Time Award, and was recognised as an inaugural Highly Ranked Scholar by ScholarGPS. She served as the General Chair for AACL-IJCNLP 2022 and a Program Co-Chair for various conferences such as ECIR 2024, CCL 2024, and EMNLP 2020. Her research has received support from the EPSRC, Royal Academy of Engineering, EU-H2020, Innovate UK, British Council, and industrial funding.

华为云大模型推理服务实践

invited

报告讲者:杨振华(华为云技术创新部 部长)

报告时间:11月1日 16:00-16:20

报告题目:华为云大模型推理服务实践

报告摘要:大模型技术的突破加速了 AI 产业落地,但成本高、可靠性不足等挑战仍制约其向千行百业普惠。为此,华为发布 CloudMatrix384 超节点,并基于该基础设施打造华为云大模型推理服务(MaaS)。本报告围绕未来应用与模型的多样化需求,介绍华为在强化系统级推理能力、推动模型与系统协同创新、探索高阶应用等方面的思考和实践,同时剖析了实践过程中面临的典型挑战。

个人简介:华为云资深技术专家,现负责华为云创新竞争力体系构建:AI基础设施、Data+AI、具身智能等。曾任欧洲研究所所长、瑞士EPFL联合实验室主任、俄罗斯ISP系统工程联合实验室主任,期间主导多个战略级项目、重大项目投资并购和技术生态拓展。