大型语言模型(Large Language Models, LLMs)是一类经过训练以理解和生成自然语言的深度学习模型。在我的博士研究期间,LLMs 已经深刻地改变了机器学习领域的格局。如今,它们被广泛应用于众多商业产品中,例如 ChatGPT。此外,从 LLMs 的开发过程中所获得的原理与经验,也持续塑造着机器学习研究的方向——包括尺度规律(scaling laws)自监督表征学习(self-supervised representation learning)等新范式。 然而,这些快速的进展也可能掩盖了许多关于模型内部机制与行为的基础性问题。随着 LLM 能力的不断增强,超越传统训练与评估流程的严谨科学研究变得尤为重要,它对于深入理解与持续改进这些模型至关重要。 本论文旨在研究以往被忽视的 “大型语言模型的隐性特性(hidden properties)”。这些隐性特性涉及模型的内部权重空间、激活空间以及输出行为等不同层面。 首先,我们发现 LLMs 在其权重空间(weight space)中本质上具有稀疏性(intrinsic sparsity)。为验证这一隐性特征,我们提出了一种基于原理的剪枝方法(principled pruning approach),能够从预训练模型中提取出有效的稀疏子网络。 其次,我们进一步探索了激活空间(activation space),揭示了其中存在结构化异常值(structured outliers)。这些激活数量极少,但其绝对值幅度极高。我们称之为**“极大激活(massive activations)”。研究表明,这些激活与自注意力机制(self-attention mechanism)密切相关。针对这一现象,我们提出了一种不含此类异常激活的替代注意力机制**。 最后,我们聚焦于输出空间(output space),设计了一个概念上简单的分析框架,用于评估和研究 LLM 生成文本中的特异性(idiosyncrasies)。实验表明,不同模型生成的文本可以被以极高的准确率区分开来,我们进一步分析了导致这种差异的特征性“签名模式(signatures)”。 总体而言,本论文希望为现代基础模型(foundation models)提供一种全新的研究视角,以促进对其内部结构与行为机制的深入理解。

成为VIP会员查看完整内容
0

相关内容

【斯坦福大学Xiang Lisa Li博士论文】控制语言模型
【伯克利博士论文】语言模型的脆弱性
专知会员服务
22+阅读 · 2月20日
【阿姆斯特丹博士论文】在语言模型中寻找结构
专知会员服务
25+阅读 · 2024年11月27日
【MIT博士论文】物理启发的生成式模型
专知会员服务
25+阅读 · 2024年9月6日
【MIT博士论文】高效深度学习计算的模型加速
专知会员服务
34+阅读 · 2024年8月23日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
论文浅尝 | 采用多层注意力机制的事件检测
开放知识图谱
24+阅读 · 2019年8月24日
【机器学习】深入剖析机器学习中的统计思想
产业智能官
16+阅读 · 2019年1月24日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
484+阅读 · 2023年3月31日
Arxiv
79+阅读 · 2023年3月26日
Arxiv
175+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员