分论坛十五:大模型记忆与人脑记忆的渐近渐远

分论坛日程

时间 报告人 单位 报告题目
09:00 - 09:30 刘兵 伊利诺伊大学芝加哥分校 Continual Learning with LLMs and Integrated Memory
09:30 - 10:00 薛贵 北京师范大学 人脑记忆研究的前沿进展
10:00 - 10:30 刘均 西安交通大学 机器记忆智能
10:30 - 10:45 茶歇
10:45 - 11:15 余山 中国科学院自动化研究所 具身概念形成、理解和交流
11:15 - 12:00 圆桌讨论

主席简介

sub-forum-invited

耿海洋(天桥脑科学研究院)

个人简介:耿海洋博士
天桥脑科学研究院学术会议总监
天桥脑科学研究院人工智能与精神健康实验室科学家
香港大学心理学系计算精神病学博士后
荷兰格罗宁根大学医学中心认知神经科学博士
华人计算精神病学联盟发起人
其工作发表在Nature Human Behavior, Brain Structure & Function, Human Brain Mapping等期刊

讲者简介

01 Continual Learning with LLMs and Integrated Memory

sub-forum-invited

刘兵(The University of Illinois Chicago)

个人简介:Bing Liu is a Distinguished Professor and Peter L. and Deborah K. Wexler Professor of Computing at the University of Illinois Chicago. He received his Ph.D. in Artificial Intelligence (AI) from the University of Edinburgh. His research interests include continual/lifelong learning, lifelong learning dialogue systems, sentiment analysis, machine learning and natural language processing. He has published extensively in prestigious conferences and journals and authored five books: one about lifelong machine learning, one about lifelong learning dialogue systems, two about sentiment analysis, and one about Web mining. Three of his papers have received the Test-of-Time awards, and another one received Test-of-Time honorable mention. Some of his works have also been widely reported in popular and technology press internationally. He served as the Chair of ACM SIGKDD from 2013-2017 and as program chair of many leading data mining conferences. He is also the winner of 2018 ACM SIGKDD Innovation Award, and is a Fellow of ACM, AAAI, and IEEE.

演讲概要:The ability to learn continuously and build knowledge over a lifetime is a defining feature of human intelligence — a capability that is essential for AI agents as well. However, current machine learning algorithms lack this ability. This talk introduces the paradigm of continual learning, explores its various settings, and discusses related learning algorithms. It focuses particularly on using large language models (LLMs) to enhance continual learning, as LLMs can significantly boost learning accuracy. All current continual learning methods rely on some external memory storage for various types of information, yet these memory components remain separate from the LLMs. A key question is how to integrate a memory component directly within LLMs, allowing seamless interaction without needing external control.

02 人脑记忆研究的前沿进展

sub-forum-invited

薛贵(北京师范大学认知神经科学与学习国家重点实验室)

个人简介:薛贵,北京师范大学认知神经科学与学习国家重点实验室教授, IDG-麦戈文脑研究所研究员,长江学者特聘教授,北脑学者,民进中央教育委员会委员,中国教育学会脑与学习分会副理事长。现任《Journal of Cognitive Neuroscience》,《Cortex》副主编,elife评审编辑,《心理学报》以及《北京师范大学学报》编委。薛贵教授主要从事人类学习和记忆的认知和神经机制研究,运用多种人脑研究手段和人工智能深度学习等技术揭示人脑认知能力结构、有效学习机制,以及人脑记忆的动态和交互特征。主持或共同主持国家自然科学基金重点项目(2011,2018,2024)、973课题、中以,中德合作项目,创新特区项目。在Science, PNAS, Trends in Cognitive Science, Nature Communication, Science Advances, Current Biology, eLife,Journal of Neuroscience,Cerebral Cortex等期刊发表140多篇学术论文,入选爱思唯尔中国心理学高被引学者(2019-2023)。获教育部自然科学一等奖(2013,2019)。

演讲概要:学习不仅仅是为了记住过去的经验,更是为了构建关于世界的心理表征,从而更好预测未知并适应环境。近年来,研究者采用高清核磁,脑磁图、侵入性颅内记录等技术,以及深度学习技术,系统刻画了记忆编码、保持,回忆和巩固等阶段的神经表征的模式,并发展了一系列的计算模型。这些最新发展不仅有助于推动学习记忆领域的理论进展,发展有效学习的干预提升方式,还能为新的人工智能算法提供启发。

03 机器记忆智能

sub-forum-invited

刘均(西安交通大学)

个人简介:刘均,西安交通大学教授,博士生导师,国家“万人计划”科技创新领军人才,斯坦福大学高级访问学者。担任IEEE TNNLS、Information Fusion编委以及多个国际期刊的客座编辑。近年来,承担了国家重点研发计划项目、国家863课题、国家自然科学基金重点项目、原创项目。在IJCV、IEEE TPAMI、IEEE TKDE、ICDE、KDD等重要期刊与国际会议上发表论文百余篇,出版专著2部。授权发明专利20项。获国家科技进步二等奖、国家教学成果二等奖以及多项省部级科技奖励。获陕西省优秀博士论文指导教师、王宽诚育人奖等奖励与荣誉。研究方向:自然语言处理、计算机视觉、智慧教育。

演讲概要:以ChatGPT为代表的大模型成为当前人工智能的巅峰,但面临过度消耗数据与算力、灾难性遗忘以及黑盒模型逻辑推理能力弱三大固有缺陷,根源在于:人工神经网络架构缺乏可塑性以及与问题机理的联系,反向传播的全局更新训练机制,正向传播的黑盒推理机制。因此,沿着大模型路线不仅难以克服固有缺陷,而且也不利于我国机器智能的自主可控。对此,拟提出“机器记忆智能”概念,探讨如何借鉴脑科学、认知科学的研究成果,从表征、学习、推理等方面破解大模型的缺陷,形成“表征-学习-推理”的机器记忆智能理论与方法。

04 具身概念形成、理解和交流

sub-forum-invited

余山(中国科学院自动化研究所)

个人简介:余山,中国科学院自动化研究所研究员,博士生导师,脑图谱与类脑智能实验室主任。研究结合实验神经科学与计算建模方法,致力于理解大脑皮层信息处理的网络机制,研究脑启发的人工智能算法,并探索新型脑机接口及其应用。在包括Nature Machine Intelligence, eLife, Journal of Neuroscience, AAAI, CVPR、NeurIPS等在内的神经科学和智能技术领域国际学术期刊、会议发表论文80余篇。担任BMC Neuroscience,Neuroelectronics编委。

演讲概要:人类智能的一个独特方面是从感觉运动经验中提取概念,并能利用概念的认知反过来精确调控感觉运动系统以促进学习,并实现个体之间的交流。目前对于人脑如何实现这一机制,以及如何在人工神经网络中实现这些功能仍缺乏深入的了解。在此我们提出了一个神经网络模型,可以从执行视觉识别任务的经验中抽提具身概念,并利用所形成的概念空间来学习新技能并在不同系统间通过交流进行知识传递。本报告将介绍这一工作,并讨论其与人脑概念形成机制的关系,以及具身概念的符号化和交流对于新一代具身人工智能系统的意义。