经逆向工程,Transformer「翻译」成数学框架 | 25位学者撰文

机器之心报道
编辑:陈萍、杜伟

一篇多达 25 位研究者参与撰写的论文 , 以最简单的架构仅包含注意力块的两层或更少层的 transformer 模型为基础 , 对 Transformer 进行逆向研究 。
Transformer 是 Google 团队在 2017 年 6 月提出的 NLP 经典之作 , 由 Ashish Vaswani 等人在论文《 Attention Is All You Need 》中提出 。 自 Transformer 出现以来 , 便在 NLP、CV、语音、生物、化学等领域引起了诸多进展 。
Transformer 在现实世界中的应用越来越广泛 , 例如 GPT-3 、LaMDA 、Codex 等都是基于 Transformer 架构构建的 。 然而 , 随着基于 Transformer 模型的扩展 , 其开放性和高容量为意想不到的甚至有害的行为创造了越来越大的空间 。 即使在大型模型训练完成数年后 , 创建者和用户也会经常发现以前从来没见过的模型问题 。
解决这些问题的一个途径是机械的可解释性(mechanistic interpretability) , 即对 transformers 计算过程进行逆向工程 , 这有点类似于程序员如何尝试将复杂的二进制文件逆向工程为人类可读的源代码 。
如果逆向工程可行 , 那么我们就会有更系统的方法来解释当前模型的安全问题、识别问题 , 甚至可能预见未来尚未构建的模型安全问题 。 这有点类似于将 Transformer 的黑箱操作进行逆向 , 让这一过程变得清晰可见 。 之前有研究者开发了 Distill Circuits thread 项目 , 曾尝试对视觉模型进行逆向工程 , 但到目前为止还没有可比的 transformer 或语言模型进行逆向工程研究 。
在本文中 , 由 25 位研究者参与撰写的论文 , 尝试采用最原始的步骤逆向 transformer 。 该论文由 Chris Olah 起草 , Chris Olah 任职于 Anthropic 人工智能安全和研究公司 , 主要从事逆向工程神经网络研究 。 之后 Neel Nanda 对论文初稿进行了重大修改 , Nanda 目前是 DeepMind 的一名研究工程实习生 。 Nelson Elhage 对论文进行了详细的编辑以提高论文章节清晰度 , Nelson Elhage 曾任职于 Stripe 科技公司 。
经逆向工程,Transformer「翻译」成数学框架 | 25位学者撰文
文章图片

左:Neel Nanda;右:Christopher Olah
考虑到语言模型的复杂性高和规模大等特点 , 该研究发现 , 从最简单的模型开始逆向 transformer 最有效果 。 该研究旨在发现简单算法模式、主题(motifs)或是框架 , 然后将其应用于更复杂、更大的模型 。 具体来说 , 他们的研究范围仅包括只有注意力块的两层或更少层的 transformer 模型 。 这与 GPT-3 这样的 transformer 模型形成鲜明的对比 , GPT-3 层数多达 96 层 。
经逆向工程,Transformer「翻译」成数学框架 | 25位学者撰文
文章图片

论文地址:https://transformer-circuits.pub/2021/framework/index.html#acknowledgments
该研究发现 , 通过以一种新的但数学上等效的方式概念化 transformer 操作 , 我们能够理解这些小模型并深入了解它们的内部运作方式 。 值得注意的是 , 研究发现特定的注意头 , 本文称之为归纳头(induction heads) , 可以在这些小模型中解释上下文学习 , 而且这些注意力头只在至少有两个注意层的模型中发展 。 此外 , 该研究还介绍了这些注意力头对特定数据进行操作的一些示例 。
各章节内容概览
为了探索逆向工程 transformers 面临哪些挑战 , 研究者对几个 attention-only 的 toy 模型进行了逆向功能 。
首先是零层 transformers 模型的二元统计 。 研究者发现 , 二元表可以直接通过权重访问 。
经逆向工程,Transformer「翻译」成数学框架 | 25位学者撰文

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。