分论坛一:大模型的理论基础

分论坛日程

时间 报告人 单位 报告题目
09:00 - 09:30 刘勇 中国人民大学 基于LLM的合成数据有效吗?-从反信息瓶颈理论视角分析
09:30 - 10:00 张拳石 上海交通大学 大模型是否可以被严谨彻底地解释清楚?
10:00 - 10:30 茶歇
10:30 - 11:00 张辉帅 北京大学 大模型表征空间的理解与安全可控生成
11:00 - 11:30 孙若愚 香港中文大学(深圳) Understanding and Improving LLM Training: Insights into Adam and Advent of Adam-mini
11:30 - 12:00 林洲汉 上海交通大学 HuRef:人类可读的大模型指纹

主席简介

sub-forum-invited

王立威(北京大学)

个人简介:王立威,北京大学智能学院教授。长期从事机器学习研究。在机器学习国际权威期刊会议发表高水平论文200余篇。担任人工智能权威期刊TPAMI编委。多次担任机器学习旗舰会议NeurIPS, ICML, ICLR领域主席。近年研究成果论文获机器学习国际顶会ICLR2023杰出论文奖、ICLR2024杰出论文提名奖。

sub-forum-invited

贺笛(北京大学)

个人简介:贺笛,北京大学智能学院助理教授、博士生导师。目前主要从事机器学习模型、算法与理论等方向的研究工作,已发表重要期刊/会议论文50余篇,谷歌引用数接近一万,指导学生2次在机器学习国际顶级评测竞赛上取得冠军。获得机器学习顶级国际会议ICLR 2023杰出论文奖及ICLR 2024杰出论文奖提名。

讲者简介

01 基于LLM的合成数据有效吗?-从反信息瓶颈理论视角分析

sub-forum-invited

刘勇(中国人民大学高瓴人工智能学院)

个人简介:刘勇,中国人民大学,长聘副教授,博士生导师,国家级高层次青年人才。长期从事机器学习基础理论研究,共发表论文100余篇,其中以第一作者/通讯作者发表顶级期刊和会议论文近50篇,涵盖机器学习领域顶级期刊JMLR、IEEE TPAMI、Artificial Intelligence和顶级会议ICML、NeurIPS等。主持国家自然科学面上/基金青年、北京市面上项目、中科院基础前沿科学研究计划、腾讯犀牛鸟基金、CCF-华为胡杨林基金等项目。

演讲概要:在大语言模型(LLMs)后训练任务中,由于高质量的特定领域数据十分稀缺,合成数据已成为重要资源。虽然已有多种方法被用于生成合成数据,但关于合成数据的理论分析仍相对缺乏。本报告首先对当前流行的合成数据生成过程进行数学建模,然后从一个新的反信息瓶颈视角对数据合成进行了理论分析,阐明后训练模型的泛化能力关键取决于生成模型带来的信息增益。希望为合成数据生成技术的设计与后训练过程的优化提供新的理解。

02 神经网络是否可以被严谨彻底地解释清楚?

sub-forum-invited

张拳石(上海交通大学)

个人简介:张拳石,上海交通大学电院计算机科学与工程系长聘副教授,博士生导师,入选国家级海外高层次人才引进计划,获ACM China新星奖。他于2014年获得日本东京大学博士学位,于2014-2018年在加州大学洛杉矶分校(UCLA)从事博士后研究。张拳石在神经网络可解释性方向取得了多项具有国际影响力的创新性成果。张拳石承担了TMLR的责任编辑,NeurIPS 2024领域主席,CCF-A类会议IJCAI 2020和IJCAI 2021的可解释性方向的Tutorial,并先后担任了AAAI 2019, CVPR 2019, ICML 2021大会可解释性方向的分论坛主席。

演讲概要:本次报告将介绍张拳石团队所提出的基于等效交互的可解释性理论体系,以及如何在等效交互理论体系下严谨地量化神经网络所建模的“交互概念”表征,如何理论证明解释的严谨性,如何实现对大模型精细决策逻辑的评测,如何通过交互的复杂度解释神经网络的整体性能,如何通过对交互复杂度的解释提升大模型的训练效率节省成本,如何对大模型安全性进行量化评估。

03 大模型表征空间的理解与安全可控生成

sub-forum-invited

张辉帅(北京大学)

个人简介:张辉帅,北京大学王选计算机研究所助理教授、博士生导师。2017年从Syracuse University毕业,获得博士学位,之后在微软亚洲研究院工作任研究员、首席研究员等职位,2024年加入北京大学王选计算机研究所任助理教授。主要从事大模型理解,深度学习理论与算法,隐私保护机器学习等方面的研究。研究成果发表于ICML, NeurIPS, ICLR, JMLR, TIT等会议及期刊四十余篇。

演讲概要:报告将探讨大模型表征空间的特征,展示大模型表征空间对齐的例子,包括多模态表征的对齐、抽象表征的提取以及表征空间的相似性度量。在此基础上,将展示一个新的表征度量利用大模型表征对齐的性质来分析和理解多模态大模型中幻觉现象的来源,解剖大模型的各个模块的贡献。最后通过展示针对商业多模态模型中版权防御的越狱攻击,探讨通过操控表征空间实现安全可控生成的方法,总结在这一研究方向上的结果并展望未来发展。

04 Understanding and Improving LLM Training: Insights into Adam and Advent of Adam-mini

sub-forum-invited

孙若愚(香港中文大学(深圳))

个人简介:孙若愚现为香港中文大学(深圳)数据科学学院长聘副教授,深圳市大数据研究院高级研究科学家。曾任伊利诺伊大学香槟分校(UIUC)助理教授、博士生导师,Facebook AI Research访问科学家,斯坦福大学博士后研究员。研究方向包括神经网络理论和算法、非凸优化、学习优化、网络优化等。曾获得INFORMS Nicolson学生论文竞赛第二名,INFORMS优化协会学生论文竞争荣誉奖。担任NeurIPS, ICML, ICLR, AISTATS等人工智能会议的领域主席,Transaction on Machine Learning Research的action edtor。

演讲概要:Adam是训练大模型的默认算法,但对Adam的理解还很欠缺。我们给出首个无修改Adam可收敛的证明,此证明要求beta2足够大。其次,我们解释为什么Adam在训练Transformer时显著优于SGD: (i) Transformer参数块之间的Hessian谱差异显著;(ii) SGD在有块异质性的问题上表现不佳。受此启发,我们提出新算法Adam-mini,实验表明,在llama3-8B预训练等任务上,可取得和Adam一样的性能,而相比Adam可节省35-50%的内存,或同等内存下提高33%-50%的吞吐量。

05 HuRef:人类可读的大模型指纹

sub-forum-invited

林洲汉(上海交通大学)

个人简介:林洲汉博士目前是上海交通大学人工智能学院副教授和John Hopcroft中心副主任。他博士毕业于蒙特利尔大学的Mila实验室,师从Yoshua Bengio。他曾在Facebook AI Research(FAIR)担任访问科学家。他的核心研究兴趣是探索和开发能够从海量数据中获取、形成、推理和交互抽象概念的机器智能。据Google Scholar统计,他的论文被引用超过9800次,其中两篇论文的引用次数均超过2000次,另有10篇论文的引用次数超过100次。他曾在多个顶级会议中担任领域主席,如EMNLP、AAAI、COLING和AACL等。

演讲概要:在本研究中我们将介绍HuRef,一种人类可读的LLM指纹,它可以有效识别LLM所使用的基模型,且不干扰模型训练、无需公开模型参数。该方法基于LLM参数的向量方向在模型收敛后保持稳定,在后续的训练步骤中仅发生微小扰动这一观察。我们利用Transformer模型结构,系统分析了潜在攻击,并定义了三个不变项来识别LLM的基础模型。我们还将介绍一种将不变项转换为自然图片的方法。实验结果表明,这一方法对各种LLM基模型的识别均有接近100%的识别准确率。