大号在练葵花宝典 发表于 2025-2-19 21:09:01

LLM论文条记 11: Exploring Length Generalization in Large Language Mode


[*]Arxiv日期:2022.11.14
[*]机构:Google Research;University of Toronto
关键词



[*]length generalization(长度泛化)
[*]理论分析

焦点结论

1. 如果模子学习到了问题的算法本质,可以将问题外推到恣意长度
2. 模子更倾向于学习非序列化的“捷径”解决方案,在更长的问题实例中表现较差
3. 自注意力是一种等变变动,可以或许执行像最大池化如许的池化利用,策略不答应在差别长度的问题之间进行知识转移
4. 在微调机制中,缩放数据、模子大小和盘算并不能提高长度泛化能力
https://i-blog.csdnimg.cn/direct/e2c017dabcfd4a2bb8e753af15773efc.png
5. CoT+微调也无法推广到更长问题,干扰项是导致长度泛化失败的主要缘故原由
https://i-blog.csdnimg.cn/direct/0b665c86aec344a3a6cc81032777aa91.png
6. 对于有些问题in-context学习固然比微调学习好(即使有无限数据)
7. 分布内泛化不能预测长度泛化使命的 OOD 泛化

主要方法

本文系统性地研究了基于 Transformer 的大规模语言模子(LLMs)在长度泛化使命中的表现,分析了差别训练和提示策略(微调、Few-shot 提示、Scratchpad 链式推理策略)的效果与范围性。
使命:


[*] Parity(奇偶校验)
[*] 变量赋值

   注:本系列不包括底子的知识点讲解,为条记/大纲性子而非教程,用于论文知识点和头脑和快速记忆和回首,更多细节发起阅读论文原文

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: LLM论文条记 11: Exploring Length Generalization in Large Language Mode