首页 > AI教程资讯 >ICLR 2025杰出论文公布!中科大硕士、OpenAI漆翔宇摘桂冠

ICLR 2025杰出论文公布!中科大硕士、OpenAI漆翔宇摘桂冠

2025-08-1002ai门户网

编辑:桃子好困

【本站导读】一年一度ICLR2025杰出论文开奖!普林斯顿、UBC、中科大NUS等团队的论文拔得头筹,还有Meta团队「分割一切」SAM2摘得荣誉提名。

刚刚,ICLR2025杰出论文出炉了!

今年共有三篇杰出论文获奖,还有3篇获荣誉提名奖。值得一提的是,斩获杰出论文的学者,都是华人一作。

分别是,OpenAI研究员漆翔宇(普林斯顿博士毕业)、不列颠哥伦比亚大学YiRen、新加坡国立大学JunfengFang和中科大HouchengJiang。

这一次,ICLR委员会通过两阶段严苛选拔,从众多优秀论文中,精挑细选出最终获奖研究。

他们从36篇候选池开始,这些论文是由领域**推荐或在评审中获得了极高的评分。

委员会成员首先进行了初步评审,筛选出入围名单。随后,所有成员再从理论见解、实际影响、精湛的写作和实验的严谨性等因素对论文进行排名。

最终,由项目**确认获奖名单。

接下来,一起看看都有哪些论文摘桂冠。

杰出论文

论文1:SafetyAlignmentShouldbeMadeMoreThanJustaFewTokensDeep

机构:普林斯顿大学,GoogleDeepMind

论文地址:https://openreview.net/pdf?id=6Mxhg9PtDE

当前,大模型的安全对齐存在显著的脆弱性。简单的攻击,甚至是无害的微调,都可能破解对齐的模型。

普林斯顿联手谷歌DeepMind研究注意到,许多这些脆弱性都与一个共同的根本问题有关:安全对齐可能采取捷径,即对齐主要仅调整模型生成分布的前几个输出token。

他们将这一问题统一称为「浅层安全对齐」(ShallowSafetyAlignment)。

论文中,作者通过案例研究解释了「浅层安全对齐」为何存在,并展示了这一问题如何普遍导致近期发现的LLM多个脆弱性,包括对抗性后缀攻击、前置填充攻击、解码参数攻击和微调攻击。

这项研究关键贡献在于,展示了「浅层安全对齐」这一统一概念,如何为缓解这些脆弱性指明有前景的研究方向。

研究证明,深化安全对齐,使其超越前几个token,可以显著提高对一些常见攻击的鲁棒性。

作者还设计了一个正则化的微调目标,通过约束初始token的更新,使安全对齐在微调攻击中更具持久性。

总体而言,团队主张未来的安全对齐,应不仅仅局限于前几个token的深度。

论文2:LearningDynamicsofLLMFinetuning

机构:不列颠哥伦比亚大学

论文地址:https://openreview.net/pdf?id=tPNHOoZFl9

这项来自UBC团队的研究,通过「学习动态」(LearningDynamics)的视角,揭开了大模型微调的神秘面纱。

「学习动态」是指,训练过程中特定样本学习,如何影响模型对其他样本的预测。

论文中,作者研究了大模型在不同类型微调过程中的学习动态,通过分析影响如何在不同潜在响应之间逐步累积的分解。

对此,他们还提出了一个理解ML学习系统行为的强大工具。

在微调过程中,一个常见的问题是模型可能会出现「幻觉」。研究发现,特定类型的幻觉会在微调后可能会被增强。

比如,模型可能在回答问题A时,错误地使用了为问题B准备的短语或事实;又或者,模型在生成响应时可能反复使用相似的简单短语。

研究人员还扩展了框架,并揭示了一个有趣现象「挤压效应」,解释在离线策略直接偏好优化(DPO)中观察到特征,即运行DPO时间过长甚至会使期望的输出变得不那么可能。

此外,新框架还提供了关于在线策略DPO及其他变体优势来源的见解。

论文3:AlphaEdit:Null-SpaceConstrainedModelEditingforLanguageModels

机构:新加坡国立大学,中国科学技术大学

论文地址:https://openreview.net/pdf?id=HvSytvg3Jh

大模型常常出现「幻觉」,生成不正确或过时的知识。

因此,NUS联手中科大团队提出了模型编辑方法——AlphaEdit,通过调整模型参数,针对性地更新知识。

目前,模型编辑的主流方法是「定位后编辑」(Locate-then-Edit)。这一方法受限定位对特定知识点有影响力的参数,然后通过引入扰动(perturbation)对其进行编辑。

虽然这种方法在许多场景中有效,但当前研究表明,这种扰动不可避免地会干扰LLM中原有的保留知识,特别是在顺序编辑场景中。

AlphaEdit给出了一个简单却高效的解决方案。

也就是,在将扰动应用于参数之前,将其投影到保留知识的零空间(NullSpace)上。

研究证明,这种投影确保编辑后的LLM在查询保留知识时,输出保持不变,从而缓解了知识干扰问题。

在包括Llama3、GPT2XL、GPT-J在内的多种LLM上的广泛实验表明,AlphaEdit通过仅添加一行用于投影的代码,使大多数定位后编辑方法的性能平均提升了36.7%。

荣誉提名

论文1:DataShapleyinOneTrainingRun

机构:普林斯顿大学,加利福尼亚大学伯克利分校,弗吉尼亚理工大学

论文地址:https://openreview.net/pdf?id=HD6bWcj87Y

传统的DataShapley为机器学习中的数据贡献提供了一个有原则的框架,但它要求对不同的数据子集重新训练模型,无法应用在规模更大的模型上。

此外,这种基于重新训练的定义无法在特定模型训练过程中过评估数据的贡献,而这在实际中往往是关注的重点。

在这篇论文中,团队提出了一种全新的概念——In-RunDataShapley,它不需要重新训练模型,就能针对特定模型的数据贡献进行评估。

具体来说,In-RunDataShapley会计算每次梯度更新迭代的Shapley值,并在整个训练过程中累积这些值。通过多种技术的结合,In-RunDataShapley可以有效扩展到基础模型的规模。

与标准模型训练相比,In-RunDataShapley增加的运行时间开销可以忽略不计。这一显著的效率提升使得在基础模型预训练阶段进行数据归因成为可能。

最后,团队通过几个案例研究阐述了对预训练数据贡献的新见解,并讨论这些观察对生成式AI及预训练数据策划的版权问题的影响。

论文2:SAM2:SegmentAnythinginImagesandVideos

机构:MetaFAIR

论文地址:https://openreview.net/pdf?id=Ha6RTeWMd0

「分割一切2.0」(SegmentAnythingModel2,SAM2)是一个用于解决图像和视频中的可提示视觉分割问题的基础模型。它基于简单的Transformer架构打造,并通过流式记忆来支持实时视频处理。

与此同时,团队还构建了一个数据引擎,通过用户交互提升模型和数据的表现,收集了迄今为止最大的视频分割数据集。

相比于前代模型,SAM2不仅准确度更高,而且在视频分割任务中的交互次数减少了3倍,在图像分割任务中的速度提升了6倍。

论文3:FasterCascadesviaSpeculativeDecoding

机构:GoogleResearch,GoogleDeepMind,MistralAI

论文地址:https://openreview.net/pdf?id=vo9t20wsmd

级联模型和推测解码法,是提高语言模型推理效率的两种常见方法。

这两种方法都通过交替使用两个模型来实现,但其机制基本不同:

前者的延迟规则在输入「困难」时才调用较大的模型,而推测解码法主要通过并行评分模式,进行推测执行来调用较大的模型。

这些机制提供了不同的好处:从经验来看,级联在成本与质量之间提供了良好的平衡,通常甚至超越了大型模型;而推测级联则显著提升了速度,同时保证质量中立。

论文中,谷歌和MistralAI团队结合了这两种方法的优势,设计出了全新的「推测级联」(SpeculativeCascades)。

他们为「推测级联」设计了最优延迟规则,并使用插件近似方法来实现该最优规则。

为了验证新方法实力,研究人员在Gemma和T5模型上进行测试,结果表明,相较于级联模型和推测解码法,「推测级联」在成本质量权衡上表现出显著的优势。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表本站立场。文章及其配图仅供学习分享之

3019
473

同类推荐更多

从法规搜索到案件分析:12 款替代律师的AI法律助手工具

从法规搜索到案件分析:12 款替代律师的AI法律助手工具

最火的AI教程资讯

2024-12-11

法律文本太复杂?生成起诉状太难?不知道如何分析案件?AI法律助手可以再一分钟帮你找到答案,自动搞定法律文书,快速进行深度案件分析,成为你身边全天候的智能律师助手。对此,神器集精选了12 个强大好用的A