分论坛十二:人工智能与脑科学
分论坛日程
时间 | 报告人 | 单位 | 报告题目 | |
14:00 - 14:25 | 李海峰 | 哈尔滨工业大学 | 脑电大模型的构建及其应用 | |
14:25 - 14:50 | 丁鼐 | 浙江大学 | 人与大模型中的语言结构表示 | |
14:50 - 15:15 | 王少楠 | 中国科学院自动化所 | 大脑语义表征和整合机制 | |
15:15 - 15:40 | 杜长德 | 中国科学院自动化所 | 大模型认知机理解析与大脑编解码 | |
15:40 - 15:50 | 茶歇 | |||
15:50 - 16:15 | 林志成 | 中国科学技术大学 | Does—and Can—AI Have Consciousness? | |
16:15 - 16:40 | 郑伟龙 | 上海交通大学 | 丘脑-皮层相互作用在认知灵活性中的递归神经网络建模 | |
16:40 - 17:05 | 臧蕴亮 | 天津大学 | 类小脑环路启发的连续学习策略 | |
17:05 - 17:30 | 圆桌论坛:脑认知视角下的大模型智能 |
主席简介
张治国(哈尔滨工业大学(深圳))
个人简介:张治国,哈尔滨工业大学(深圳)计算机科学与技术学院教授,博导,国家级青年人才。主要研究方向是脑电信号分析、脑机接口和类脑智能。他曾任香港大学和新加坡南洋理工大学助理教授,中山大学和深圳大学教授。他已发表论文200余篇,授权专利20余项,编著一本脑电处理书籍(中英文版)。获2021年教育部自然科学奖一等奖和2022年北京市自然科学二等奖,入选斯坦福大学公布的全球前2%顶尖科学家“终身科学影响力”榜单。
讲者简介
01 脑电大模型的构建及其应用
李海峰(哈尔滨工业大学计算学部)
个人简介:李海峰教授,博士生导师。国家重点研发计划项目首席科学家;科技创新2030脑科学与类脑研究重大项目总体组专家;哈尔滨工业大学计算学部人工智能专业负责人,类脑智能与神经工程研究中心主任;深圳市脑机接口与类脑智能重点实验室主任。曾任YOCSEF哈尔滨分会2008~2009年主席,中国计算机学会语音对话与听觉专业组副主任。任中国生物医学工程学会医学神经工程专委会委员,中国人工智能学会人工心理与人工情感专委会委员,全国信息技术标准化技术委员会用户界面分委会(SC35)委员,中华医学会黑龙江省癫痫专业委员会常务委员;IEEE(电气和电子工程师协会)会员,ACM(美国计算机协会)会员,中国计算机学会CCF高级会员。
演讲概要:随着大模型技术的发展,在脑电图(EEG)信号处理领域中,大模型正逐渐展现出革命性的潜力。EEG对脑科学研究至关重要,但面临信噪比低和差异性大的挑战。构建通用EEG基础表征模型,简化特征提取过程,已成为当前研究热点。本报告将讨论大模型技术在EEG信号处理中的应用,使用自监督学习方法提高EEG信号特征提取的效率和质量。这些创新方法不仅增强了模型的鲁棒性,还提高了其在多种脑科学任务中的适用性,为脑电图研究开辟了新途径。
02 人与大模型中的语言结构表示
丁鼐(浙江大学)
个人简介:丁鼐,生物医学工程与仪器科学学院研究员,浙江大学生物医学工程教育部重点实验室副主任。主要研究领域为语音、语言理解的认知神经机制,在Nature Neuroscience等期刊发表论文数十篇,论文总引用6000余次,连续多年入选爱思唯尔“中国高被引学者”和斯坦福全球前2%科学家。主持国家自然科学基金优秀青年基金,国家脑计划课题等,正在或曾经担任eLife, Imaging Neuroscience, NeuroImage等期刊编辑。
演讲概要:经典语言学理论认为人脑将句子解析为层级语言结构;与之相反,当前的人工智能大语言模型并不显式地解析语言结构。我们通过分析人类和大语言模型在一种新颖的单示例学习任务中的行为,阐明人和模型如何构建层级语言结构表征。基于该任务,我们能够重建句子在人脑和大语言模型中的句法结构表征。这些结果表明,无论是人脑还是大语言模型,都能够形成树状句法结构。
03 大脑语义表征和整合机制
王少楠(中国科学院自动化研究所)
个人简介:王少楠,中科院自动化所多模态人工智能系统国家重点实验室副研究员,纽约大学访问学者。研究方向为自然语言理解和语言的神经认知基础。获中国科学院院长奖学金特别奖、中国科学院优秀博士论文、中文信息学会优秀博士论文、中科院脑科学与智能技术卓越创新中心青年人才奖励基金等,入选中国科协青年人才托举工程和中国科学院青年创新促进会会员。
演讲概要:当你看到或听到“绿色蛋糕”时,大脑究竟经历了什么过程?你知道“绿色”是一种颜色属性,“蛋糕”是一种食物,而“绿色的蛋糕”则是一种不常见的组合。或许,你的脑海中甚至浮现出了这类蛋糕的画面,伴随着与其相关的记忆。那么,大脑究竟如何促成这些理解?本次报告聚焦于大脑的语义表征和整合机制,深入探讨大脑如何对不同类型的词汇进行语义编码,并在何时、何地、以何种方式整合这些词汇的含义,最终实现对复杂语义信息的快速理解。
04 大模型认知机理解析与大脑编解码
杜长德(中国科学院自动化研究所)
个人简介:杜长德,主要从事脑与智能研究,在(基于fMRI、MEG、EEG数据的)神经编解码、多模态神经计算、大模型机理解析、脑机融合智能等方面发表了40多篇高水平论文,包括 TPAMI、ICLR等。主持/参与多项国自然、国家重点研发等项目。长期担任 Nat. Hum. Beh., TPAMI等期刊的审稿人。受邀在国际人脑图谱大会 (OHBM)、国际人工智能大会(AAAI)做学术报告。曾获IEEE ICME 2019 最佳论文奖(亚军)、2021年AI华人新星百强,研究成果被《MIT Technology Review》报道。个人主页:https://changdedu.github.io/。
演讲概要:大模型在多种任务中展现了优越的性能。然而,目前尚不清楚大模型的表征是否与人脑类似。先前的研究通过量化大模型和人脑响应间的相关性来解决这个问题。虽然一定程度上证明大模型和人脑之间的相关性很高,但简单的相关性分析无法揭示两者核心认知维度的异同。这里,我们使用认知心理学和脑影像实验范式,深入解析了多种大模型内部表征的类人/脑特性。我们还基于不同类型的大模型进行了大脑神经信号的编解码研究,在预测精度、生成质量、可解释性等方面取得了新突破。
05 Does—and Can—AI Have Consciousness?
林志成(中国科学技术大学)
个人简介:林志成现任中国科学技术大学“百人计划”特任研究员和博士生导师,自2024年起担任中科院一区Top期刊《Psychological Science》和《Behavior Research Methods》的副主编。他本科毕业于北京大学心理学系,并在美国明尼苏达大学获得心理学博士学位。林志成的研究兴趣涵盖认知科学、元科学,以及人工智能与科学研究的结合,尤其是在学术写作、编程及其在社会科学研究中的应用方面。近年来,他专注于推动人工智能与心理学的融合发展,即人工智能心理学。
演讲概要:演讲从心理学、认知科学、神经科学和哲学等多个学科角度探讨AI(人工智能)是否具有意识。这个问题既涉及伦理和法律等重要层面(例如AI是否应享有道德权利或承担法律责任),也具有科学与工程方面的意义(例如意识的本质是什么及如何实现通用人工智能)。当前的AI在多个方面给人一种似乎拥有意识的错觉,但这在很大程度上源于人类的认知偏差,如拟人化倾向和目的论思维。从不同的主观体验定义来看,意识与语言能力或智力水平之间并不存在必然的联系。根据主流的意识理论,目前的AI尚未具备意识,将来也不大可能拥有类似人类的意识,尽管在许多认知任务中它的表现可以远超人类。
06 丘脑-皮层相互作用在认知灵活性中的递归神经网络建模
郑伟龙(上海交通大学)
个人简介:郑伟龙,上海交通大学计算机科学与工程系副教授,博士生导师。入选国家级高层次海外青年人才和上海市海外高层次青年人才。麻省理工学院和哈佛大学医学院麻省总医院博士后。长期从事脑认知与智能、情感计算、脑机交互、类脑计算理论与模型等研究。荣获3个国际期刊和会议论文奖、 中国人工智能学会优秀博士学位论文奖、吴文俊人工智能自然科学一等奖,上海市浦江人才、小米青年学者、微软亚洲研究院铸星计划。
演讲概要:认知灵活性是使人类和动物能够在各种情境中表现出适当行为的基本能力。前额皮层(PFC)与内侧背丘脑(MD)之间的相互作用被认为对推断时间情境至关重要。我们提出了利用赫布可塑性规则的PFC-MD神经网络,以支持快速的在线情境推断。丘脑模块能够在较少次试验中从前额叶皮层输入推断时间情境信息,同时调控前额皮层中与情境无关的神经元活动,从而促进持续学习。引入丘脑模块减轻了对先前任务的灾难性遗忘,并展示了向未来任务学习的知识迁移能力。
07 类小脑环路启发的连续学习策略
臧蕴亮(天津大学医学工程与转化医学研究院)
个人简介:臧蕴亮, 2023年放弃美国公立常青藤康涅狄格大学教职,加入天津大学。多年来在小脑实现高效编码学习的生物策略、神经系统鲁棒性机制、类小脑结构启发人工智能等方面进行了系统研究。代表性工作以一作发表在PNAS (2023 & 2021)、Current Biology (2023)、eLife (2020)、Cell Reports (2018)等专业期刊,担任中国计算神经科学和神经工程等多个专委会委员。主持国家重点研发计划和国家自然科学基金面上等项目。实验室研究方向包括基于小脑和嗅觉环路启发的人工智能、树突计算、计算神经科学。
演讲概要:除了运动控制和学习,小脑还参与各种认知功能,因而在神经网络和学习系统等工程领域具有广泛应用。近期我们构建了一个小脑网络模型,研究其在模式识别和复杂运动轨迹回归学习任务中的连续学习性能。
我们的研究证明了生物体在面对单一、简单和连续、复杂等不同任务场景下对于编码策略的不同需求。