当前位置: 首页 > 中国星空网 > 娱乐 > 内容页

斯坦福训练Transformer替代模型:1.7亿参数,能除偏、可控可解释性强 焦点简讯

2023-06-25 14:16:19 来源:机器之心

以 GPT 为代表的大型语言模型已经并还将继续取得非凡成就,但它们也存在着众所周知的问题,比如由于训练集不平衡导致的偏见问题。

针对这一问题,斯坦福大学几位研究者提出了一种新型神经架构 Backpack,宣称能够调控意义向量来干预语言模型的行为,引导语言模型输出想要的结果。该项目的代码和模型都已发布。


(资料图片)

论文地址:https://arxiv.org/abs/2305.16765

项目地址:https://backpackmodels.science

论文一作、斯坦福大学 CS 博士生 John Hewitt 表示,Backpacks 是 Transformers 的替代,它可以在表现力(expressivity)上进行扩展,并为通过控制实现可解释性提供一种新接口。一个 backpack 学习每个字词的 k 个非上下文意义向量,从而无监督地解耦字词的预测用途。

引言

首先我们假设有前半个语句「The CEO believes that _」,我们的问题是消除神经语言模型在该句子的性别分布上的偏见。凭直觉我们就能知道该句子的性别偏见源自「CEO」一词,因为如果把「CEO」换成「护士」,偏见就会发生性别逆转。为了消除在 CEO 上的偏见,必须要对模型进行干预并且要应用到 CEO 一词所出现的所有上下文中。

理想情况下,我们希望采取的干预措施不会改变模型的上下文并且可以预测这个干预带来的影响。通常来说,从可解释性与控制的各个方面看,我们更倾向于通过一个全局应用的容易操作的接口(比如非上下文表征)来实施干预。

但对 Transformer 来说,这种干预却难以实现,因为它们的上下文表征是其输入的单体函数(monolithic function)。单体函数是指内部具有逻辑分支的函数,能够根据输入执行不同的逻辑。对 Transformer 模型的任何干预都会根据上下文情况产生复杂的非线性影响。但我们希望模型能实现丰富的精准干预,nenggou 预测在所有上下文中的情况,并依然能富有表现力;如此一来,这样的模型就能成为 Transformer 的可行替代模型。

针对这些挑战,研究者提出了一种新的神经架构 Backpack,其预测是非上下文表征的对数 - 线性组合。他们的做法是将词汇表中的每个词都表示成一组非上下文的意义向量(sense vector),这些向量表示的是学习到的该词的不同方面。

举个例子,「science」这个词的意义向量可以编码科学的类型、与技术的关系、已经得到公认的科学概念以及科学过程的不同方面(复现或实验),参见下表 1。意义向量学习的不是经典的词义,而是一个词在不同语境中的潜在作用的更一般性方面;事实上,意义向量可被视为经典词向量的一种多向量泛化。

图 1 :Transformer 是序列的单体函数,而 Backpack 的输出是非上下文的、所学词的各个方面的加权和。

在干预意义向量时,为了使干预结果在不同上下文中都是可预测的,Backpack 会将一个序列中的每个词都表示成该序列中所有词的意义向量的一个线性组合。Backpack 的表现能力来自于计算该线性组合的权重的网络模型,其计算方式是将这些权重作为整个序列的一个函数。顺便一提,研究者在实验中使用的网络模型是 Transformer。由于意义向量是根据上下文大致选择的,因此它们可以专门限定到特定领域;每个意义都可以学会仅在某些上下文中才有用,并且是否有用可以预测出来。也就是说,意义对预测的贡献呈对数 - 线性模式,这意味着不管上下文如何,对意义向量的干预也同样适用(直到权重变成非负标量)。

研究者的实验表明 Backpack 语言模型确实表现力强大,并且表明对意义向量进行干预有助于解释和控制模型。在实验中,研究者在 OpenWebText 的 500 亿 token 上训练了 Backpack 语言模型;这个 Backpack 模型的上下文网络有 1.24 亿参数(意义向量有 4600 万参数),能达到一个 1.24 亿参数 Transformer 的困惑度;但如果想要更高的可解释性,就需要更大的模型。研究者还展示了如何通过意义向量来针对性地编码丰富的词义概念。

在四个词汇相似性数据集(例如 SimLex999)上的定量分析结果看,1.7 亿参数的 Backpack 的意义向量优于 60 亿参数的 GPT-J-6B Transformer 的词嵌入,并且接近针对该任务的专用方法的当前最佳表现。研究者还表明意义向量能为 Backpack 语言模型提供一种控制机制。

举个例子,对于具有职业性别刻板偏见的词(如「CEO」或「护士」),往往会学习到与该性别偏见相关联的意义向量;研究者发现通过为该意义向量降幅,能在有限环境中极大降低上下文预测中的性别差异。

表 1:左侧是表示 science 一词的意义向量示例,其中具有丰富的特定领域指向;右侧是以非上下文的方式编辑意义向量的示例(将 MacBook 变得与惠普相关),从而改变了所得的上下文预测。

Backpack 架构

下面首先将定义 Backpack 架构的一般形式,然后会证明连续词袋 word2vec(CBOW)和仅自注意力网络其实就是 Backpack 的特例。

Backpack 的一般形式

Backpack 是一个将符号序列

映射成向量序列

的参数函数,其中每个符号 x_i 都属于一个有限词汇表 V,而

。这里将 o_i 称为 x_i 在上下文序列 x_{1:n} 中的 Backpack 表征。

意义向量。对于每个 x ∈ V,Backpack 构建 k 个意义向量:

其中

。意义向量是一种多向量,类似于 word2vec 或 GloVe 等经典的非上下文词表征。

加权和。对于一个序列 x_{1:n},元素 x_i 的表征 o_i 是词在上下文中的预测意义向量的加权和:给定上下文化权重

Backpack 的上下文化权重则由整个序列 x_{1:n} 的一个(非线性)上下文函数定义:

其中

Backpack 这个名称灵感来自这一事实:backpack 是指背包,就像是一个袋子(类比于词袋 /bag-of-words),但是背包更有秩序一些。类似于词袋,Backpack 表征也是非上下文意义的加权和;但 Backpack 更加有序,因为这个加权和的权重取决于有序的序列。

Backpack 模型。Backpack 模型是一种概率模型,它将在某一输出空间 Y 上的概率定义为一个 Backpack 表征 o_{1:n} 的对数 - 线性函数:

其中是一种线性变换。因为 Backpack 模型的表征呈现对数 - 线性模式,所以意义向量对预测的贡献也呈对数 - 线性模式。这让我们可以检查意义向量,具体做法是经由 E 将意义向量投射到词汇表上,然后在任意上下文中观察其究竟会如何对预测做出贡献。

模型的参数化可使用常用的深度神经网络,包括 LSTM 和 Transformer;这些都不是 Backpack,因为它们的输出表征是整个序列的(相对而言)无约束函数。相对而言,Backpack 的表现力看起来是有限的:其表征 o_i 是非上下文向量

以标量加权的和。序列元素之间的上下文关系只能通过权重 α 来表示。尽管如此,研究者的实验表明,一个表现能力强的上下文化权重网络可以通过意义向量的加权和来表示复杂函数,比如新提出的 1.7 亿参数的 Backpack 语言模型使用了一个 1.24 亿参数的 Transformer 模型来计算 α,并实现了和 1.24 亿参数 Transformer 语言模型一样的损失。

研究者通过数学形式证明了连续词袋与单层注意力都是 Backpack 的特例,但这里我们不再过多论述了,详情参阅原论文。

使用 Backpack 的语言建模

研究者使用 Backpack 来进行参数化,定义了一个神经自回归语言模型。对于序列的下一 token 的概率,他们使用了标准的 softmax 参数化,其中有一个将表征

映射成 logit

的权重矩阵

回想一下,Backpack 表征 o_j 是通过意义向量 C (x) 和上下文化权重 α_j 定义的。下面首先会介绍等式 (1) 中预测意义向量 C 的参数化,然后是上下文化权重网络 A 的参数化。当 o_j 是由 Backpack 参数化时,就可以称该模型为 Backpack 语言模型。

对意义参数化

对于意义函数

,我们将每个 x ∈ V 都嵌入到

中,然后将这些嵌入通过一个前向网络

其中,嵌入 / 投射矩阵 E 与 (9) 式中的输出矩阵紧密关联。现在我们可以使用一个查找表来定义所有 k × |V| 意义向量,但随着 k 增大,参数数量也会变得非常大。于是研究者在这里采用的做法是将词嵌入成,然后使用共享权重将它们放大到。这也许可以解释在不同词类型上观察到的相关意义作用。

对上下文化权重参数化

研究者使用了一个标准 Transformer 加一层多头关键词查询自注意力来对进行参数化,也就是让一个嵌入的序列通过一个 Transformer:

这里使用了适当的自回归掩码和某种位置表征,然后计算其中对于每个预测意义 ℓ=1,...,k 有并且矩阵。

研究者把这 k 个意义看作是头,对于每个头,上下文化权重都为对词的注意力定义一个分布。

训练 Backpack 语言模型的实验

这一节介绍了研究者为了进行验证而做的实验,其中包含训练 Backpack 和 Transformer 语言模型的超参数、数据和优化流程、评估和结果。这里我们不多介绍了,但研究者重点指出:学习 k > 1 个意义向量对于实现优良的语言建模性能而言是必需的。

表 2:语言建模性能,所有模型都训练了 10 万步,token 批大小为 50 万,是在 OWT 上。对于 PPL 指标,越低越好;对于准确度指标,越高越好。注意这些模型的参数没有可比性;每个 Backpack 的上下文化网络中都有一个大小相当的 Transformer。

可以看出,对比每个 Backpack 语言模型以及与 Backpack 的上下文化网络的规格相当的 Transformer 语言模型,Backpack 语言模型的表现大致相当。需要指出,Backpack 的参数更多,这主要来自意义向量。研究者发现,在训练时,Backpack 语言模型的收敛时间长于 Transformer。奇怪的是,尽管 Small Backpack 和 Transformer 实现了几乎一样的 OWT 困惑度,但 Backpack 语言模型在 LAMBADA 和 Wikitext 上的表现却显著更好,同时在 BLiMP 上却又更差。

意义向量中的涌现结构

下面将通过定性和定量实验,来验证意义向量在计算词汇相似性和相关性方面的有效性。这些结果表明意义向量可以成为实施干预的高层面接口。

意义的可视化

基于实验经验,经过训练的 Backpack 模型会将特定的意义向量索引与不同的预测作用关联起来。研究者为了解释这些作用,做法是选取词 x 的意义 ℓ 并将这个意义投射到词嵌入:

。请注意,这正是(直到一个标量)意义有助于模型的任何预测的方式。研究者是通过报告该投射下分数最高的词来解释意义向量的作用。

下表 3 可视化地展示一些意义,比如意义 12 似乎为几乎所有单词都编码了广泛的相关概念;意义 3 编码了给定 x 的二元分布的特定情况;意义 14 似乎为动词编码了相关的宾语,也为名词编码了相关的修饰词依赖子项。

表 3:可视化地展示了在许多词上的同一意义索引如何编码细粒度的含义、相关性和预测使用情况的概念。

词汇关系测试

从下表 4 可以看到,意义 12(同义词意义)在所有数据集上都表现良好,媲美或者优于 GPT-2-1.5B 和 GPT-J-6B 等嵌入,而 GPT-J-6B 在 RG-65 上则例外。意义 14 是动词宾语意义,仅在动词相似度(VerbSim3500)上表现好,而意义的最小相似性在名词词汇相似性上表现尤其出色 (SimLex999)。这说明新提出的方法足以比肩当前最优的方法,尽管它们的训练任务非常不同,意义向量编码了大量的词汇信息。

表 4:词汇相似性评估结果。所有的数值都是 Spearman 相关度;越高越好。

用于控制的意义向量

最后,研究者通过一些具体案例进行了概念验证,即可以使用意义向量来控制语言模型的行为。

生成限定主题的内容

下图 2 中,通过 Backpack 中的意义干预来控制生成主题,对比了 Transformer 的 PPLM。

降低性别偏见

研究者发现,许多职业名词(比如护士、CEO、教师)的意义向量 10 都带有性别的刻板印象,并且这种刻板印象会通过代词连贯地表达出来。通过调降意义 10(乘以小于 1 的标量),研究者发现可以降低 Backpack 在这些职业名词上的性别偏见。

表 5:在有限设置中降低基于代词的性别偏见。

图 3:对于前半句「when the nurse walked into the room」(当那位护士走进房间),Backpack 语言模型通过将「护士」一词的意义 10 从 0(完全移除)变成 1(原始情况),条件概率分布受到的影响。

知识编辑

研究者还研究了新方法在知识编辑方面的应用。知识编辑是指编辑模型对于世界知识的预测。特别要指出,与专有名词相关的许多词都可以定位到该名词的意义向量。在定性的概念验证实验中,研究者编辑了目标词(比如 MacBook)的意义向量,移除了与另一个词(比如 Apple)的相关性,然后用再一个词(比如 HP)替代了这些相关性。可以想见,这种干预会导致 MacBook 与 HP 在预测结果中产生关联。

表 6:来自 Backpack 的样本,其中 Apple 被投射到了 MacBook 的意义嵌入之外,而 Apple 原来的位置被 HP 替代。第三个样本类似,是美式橄榄球球队和运动员相关的样本。其中加粗的部分为 prompt。

标签:

网红

更多

猜你喜欢

更多
斯坦福训练Transformer替代模型:1.7亿参数,能除偏、可控可解释性强 焦点简讯 每日动态!个性化定制、主题研学,暑期游玩法“上新”持续升温 全球新消息丨共启数字尼山之旅 共赴数字文明之约 想气死人 专项审计包括哪些业务模块_专项审计包括哪些 世界讯息:嘴唇干裂什么原因_为什么会嘴唇干裂 激愤是什么意思 齑粉是什么意思_实时焦点 鼠标写字的输入法_鼠标输入法是什么 世界快消息!618珀莱雅持续稳居国货第一,向国际第一阵营迈进的国货典范 天天要闻:网络密码怎么查看密码微信(网络密码怎么查看) 环球快报:《香山文艺》第二期:以艺育人,点燃梦想 中山127亿元挂牌出让10宗宅地 供地规模远超去年整年 TVB女星真空上阵拍摄节目,按摩时险些露出屁股走光,直言担心 abac的成语来去_abac的成语 全球头条:【北京成交日报】06月24日新房成交190套、二手房55套;涨价房源135套 海报新闻丨一组数字,看端午小长假吉林省文旅市场有多强|全球动态 卡德罗夫爆料:普里戈任因女儿没拿到地怒气登顶-热点聚焦 美媒:华盛顿的幻想症发作 环球今亮点!428!415!2023年湖南高考分数线定了 虹桥枢纽查获交通违法案9件 2位“的哥”无证营运 每日快看:榆林市第一医院联合榆林市强制隔离戒毒所开展防范麻精药品滥用宣传活动 倒计时50天,一起回顾大运时刻 环球今头条!彩金猴王出世金币价格今天多少一克(2023年06月25日) 每日视讯:各地加大研发实现粮食利用最大化 耕好“无形良田”守好“大国粮仓” 养老金调整方案将在2023年6月底公布?企退职工可能会一次性补发7个月 江苏兴化英武派出所:打好“组合拳”持续提升群众识诈防诈“免疫力”-环球新要闻 全球要闻:房产税何时开征?房产税纳税期限如何规定?房地产税是从什么时候征收的? 环球最新 热消息:端午假期 衡水5万余人次乘坐火车出行 纺织行业发展现状调查2023 纺织行业未来市场展望 今日讯!未来3天暴雨中心集中在湘江中上游 湘江干流全线或出现超警戒水位 退圈10年无代餐,她才是仙侠剧里的白月光 观焦点:18家企业打开大门,帮农户晒麦320万公斤 【环球播资讯】光模块上市公司发展新阶段:追求成长质量、创新、公司治理均衡发展 2023年6月25日碳酸丙烯酯价格最新行情预测 全球新要闻 中经评论:人工智能如何应对气候变化|全球热消息 马斯克:大幅调整后,SpaceX“星舰”再次试射的成功机会大增|世界今日讯 世界今日报丨是不是所有的竞争对手都是企业的敌人的分析论述_是不是所有的竞争对手都是企业的敌人如果不是试说明竞争对手能为 华南首条国际跨境数据专线在知识城开通,将利好这些项目|天天视讯 夏天运动减肥效果更好?答案是……|热推荐 天天信息:价格上涨,很多杭州人却抢着买!接下来预计…… 女孩用iPhone充电被电击内脏受损面临截肢:苹果回应! 世界播报:『视神经炎』视神经炎不治疗有哪些危害 2023湖州中考成绩公布时间 【世界快播报】多名“90后”干部被查,中纪委刊文分析为何“早节不保” 今日最新!美妆巨头陷入焦虑:做VC、清库存、卷向线下 打雷玩电脑有问题吗_打雷玩电脑有事吗|环球即时看 安徽省驻沪单位党建联建和“双招双引”工作座谈会举行 美国非农数据对国内期货影响大吗?_美国非农数据对黄金市场有哪些影响 豪迪qq群发器2013破解版 豪迪qq群发器手机版下载安装_天天看点 《理智派生活》结局是什么?《理智派生活》在哪里播出? 惊心24小时!俄罗斯瓦格纳“叛乱”始末 陕国投A股东户数增加540户,户均持股14.78万元 全球滚动:时刻注意消防安全!打卡景区这些话都要放心上 《芳心荡漾》潘晓晨最后和谁在一起了?《芳心荡漾》罗潇潇最后和谁在一起? 每日资讯:162.61亿元!金融活水浸润实体经济 《灿烂的转身》安宁和庞鑫什么关系?《灿烂的转身》安宁的孩子是谁的? 世界信息:来自军报关于军粮的报道还不少,“自热野战快餐”,当年就是压缩饼干和罐头 你需要权限来执行此操作怎么设置_你需要权限来执行此操作|世界时快讯 《云襄传》苏怀柔的真实身份是谁?《云襄传》莫不凡结局怎么了? 制造业正经历变革,看好军工、基建等方向 《正好遇见你》鱼在藻最后和谁在一起?《正好遇见你》陶唐身世是什么? 《闪耀的她》是根据什么改编的?《闪耀的她》丁宁和郑董什么关系? 【天天聚看点】IPO市占率创历史新低!外资投行接力式裁员,优等生为何优势不再? 炎热感略有缓解!今明天北京最高温陆续降至35℃ 山区需防雷阵雨 龙舟生意太火爆!除了生产厂家,这些公司也赚“疯”了! 每日热门 送情人生日祝福语简短独特_送情人生日祝福语 《终极笔记》讲了什么故事?《终极笔记》里的泥人是谁? wangyibao(关于wangyibao的基本详情介绍) 焦点热门:2023年6月25日六水氯化铝价格最新行情预测 谢娜的综艺节目在哪个台_谢娜的综艺节目 《只为遇见你》讲的是什么内容?《只为遇见你》结局高洁和谁在一起了? 世界观速讯丨os是什么意思怎么读-os是什么意思 《消失的她》剧情是什么?《消失的她》李木子是谁扮演的? 7万元级掀背式动感家轿 江淮A5 PLUS正式上市|每日速递 《暴雪将至》讲的什么?《暴雪将至》谁是凶手? 全球都在加息,为何我们却在降息? 全球快看点丨地产高管们逃离地产圈后,都去哪了?| 新地产 世界热推荐:华北黄淮等地高温天气将有所减弱 江南华南降雨26日后减弱 快资讯丨斥候人的斥候怎么写_斥候报告怎么做 扎台型!上海内环高架这一幕被疯狂点赞,视频记录全过程 售19.98万/换装全新1.5T 途观L 300TSI智享版上市 《千字文》说文解字“诫”,诫怎么读?-今日热议 环球讯息:经济日报:为小份菜再添一把火 早参丨端午假期广州共接待市民游客近623万人次;银川烧烤店爆炸事故原因公布-今日精选 速看:我会牢牢记住你的脸歌曲原唱_我会牢牢记住你的脸 是那首歌的歌词 黑暗之魂3存档在哪_黑暗之魂2存档位置 世界速讯 豫园商圈老牌金店借助直播 探索数字化年轻化运营 老品牌线上线下收获年轻消费力 福建省教育考试院2023年福建高考成绩查询、查分系统入口 环球热议:泰星weir最近动态(泰星Weir有了女儿还想再要儿子) 世界热消息:【跪立】锻炼部位:股四头肌和臀屈肌 每体:贝蒂斯希望租借尼科,球员没有进入到哈维的计划中|当前热文 声名狼藉完结(声名狼藉小说下载) 碳素墨水与非碳素墨水哪个好 非碳素墨水和碳素墨水的区别-看热讯 太阳三方交易官宣!比尔身披3号联手杜布冲冠 老板发声感谢保罗 全球热点!普京离开莫斯科?佩斯科夫称,普京正在克里姆林宫办公 校方谈学生学位证被弄丢,正在走补办程序|观速讯 驾驶证d证开什么车_驾驶证d证 全球速看 problems是什么意思啊_problems是什么意思 快资讯丨宋琮 沁诺净水器官网_沁诺净水器 全球热点

直播

  1. 今头条!腾讯手游助手电脑版下载安装(腾讯手游助手电脑版)

    今头条!腾讯手游助手电脑版下载安装(腾讯手游助手电脑版)

  2. 【时快讯】深圳市顺丰快递电话号码(深圳顺丰快递的电话号码)

    【时快讯】深圳市顺丰快递电话号码(深圳顺丰快递的电话号码)

  3. 天天视讯!木耳熬汤(meat)

    天天视讯!木耳熬汤(meat)

  4. 看热讯:南烟斋笔录小说txt资源(南烟斋笔录小说txt)

    看热讯:南烟斋笔录小说txt资源(南烟斋笔录小说txt)

  5. 焦点速读:日文是什么意思中文(日文是什么字上下)

    焦点速读:日文是什么意思中文(日文是什么字上下)

  6. 动态焦点:锦城丝管日纷纷半入江风半入云此曲只应天上有人间能得几回闻(锦城丝管日纷纷半入江风半入云)

    动态焦点:锦城丝管日纷纷半入江风半入云此曲只应天上有人间能得几回闻(锦城丝管日纷纷半入江风半入云)

  7. 环球报道:五分裤男(五分裤)

    环球报道:五分裤男(五分裤)

  8. 前沿热点:驱赶喜鹊妙招(驱赶)

    前沿热点:驱赶喜鹊妙招(驱赶)

  9. 每日消息!求一些工藤新一最帅的照片和他的简介。

    每日消息!求一些工藤新一最帅的照片和他的简介。

  10. 焦点关注:发达国家在经济发展过程中最大的问题是什么(发达国家在经济发展过程中最大的问题是)

    焦点关注:发达国家在经济发展过程中最大的问题是什么(发达国家在经济发展过程中最大的问题是)