[返回四海同心首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

陈丹琦团队最新论文:受 GPT-3 启发,用小样本学习给语言模型

送交者: 蓝莓我不蓝[♀☆★★★蓝🐱★★★☆♀] 于 2021-01-04 4:59 已读 286 次  

蓝莓我不蓝的个人频道

+关注
做微调,性能最高提升 30%。

2020 年,GPT-3 可谓火出了圈。

不仅讲故事的本职工作做得风生水起,还跨界玩起了网页设计、运维、下象棋……

不过,尽管表现惊艳,GPT-3 背后到底是实实在在的1750 亿参数,想要在实际应用场景中落地,难度着实不小。

现在,针对这个问题,普林斯顿的陈丹琦高天宇师徒和 MIT 博士生 Adam Fisch 在最新论文中提出,使用较小的语言模型,并用少量样本来微调语言模型的权重。


并且,实验证明,这一名为LM-BFF(better few-shot fine-tuning fo language models)的方法相比于普通微调方法,性能最多可以提升 30%。

详情如何,一起往下看。

方法原理

首先,研究人员采用了基于提示的预测路线。

所谓基于提示的预测,是将下游任务视为一个有遮盖(mask)的语言建模问题,模型会直接为给定的提示生成文本响应。

这里要解决的问题,是寻找正确的提示。这既需要该领域的专业知识,也需要对语言模型内部工作原理的理解。

在本文中,研究人员提出引入一个新的解码目标来解决这个问题,即使用谷歌提出的 T5 模型,在指定的小样本训练数据中自动生成提示。

其次,研究人员在每个输入中,以额外上下文的形式添加了示例。

问题的关键在于,要有限考虑信息量大的示例,一方面,因为可用示例的数量会受到模型最大输入长度的限制;另一方面,不同类型的大量随机示例混杂在一起,会产生很长的上下文,不利于模型学习。

为此,研究人员开发了一种动态的、有选择性的精细策略:对于每个输入,从每一类中随机抽取一个样本,以创建多样化的最小演示集。

另外,研究人员还设计了一种新的抽样策略,将输入与相似的样本配对,以此为模型提供更多有价值的比较。

实验结果

那么,这样的小样本学习方法能实现怎样的效果?

研究人员在 8 个单句、7 个句子对 NLP 任务上,对其进行了系统性评估,这些任务涵盖分类和回归。

结果显示:

基于提示的微调在很大程度上优于标准微调;

自动提示搜索能匹敌、甚至优于手动提示;

加入示例对于微调而言很有效,并提高了少样本学习的性能。

在 K=16(即每一类样本数为 16)的情况下,从上表结果可以看到,该方法在所有任务中,平均能实现11%的性能增益,显著优于标准微调程序。在 SNLI 任务中,提升达到30%

不过,该方法目前仍存在明显的局限性,性能仍大大落后于采用大量样本训练获得的微调结果。

关于作者

论文有两位共同一作。

高天宇,清华大学本科生特等奖学金获得者,本科期间即发表 4 篇顶会论文,师从 THUNLP 实验室的刘知远副教授。

今年夏天,他本科毕业后赴普林斯顿攻读博士,师从本文的另一位作者陈丹琦。

此前,量子位曾经分享过。

Adam Fisch,MIT 电气工程与计算机科学专业在读博士,是 CSAIL 和 NLP 研究小组的成员,主要研究方向是应用于 NLP 的迁移学习和多任务学习。

他本科毕业于普林斯顿大学,2015-2017 年期间曾任 Facebook AI 研究院研究工程师。

至于陈丹琦大神,想必大家已经很熟悉了。她本科毕业于清华姚班,后于斯坦福大学拿下博士学位,2019 年秋成为普林斯顿计算机科学系助理教授。

最后,该论文代码即将开源,如果还想了解更多论文细节,请戳文末论文链接详读 ~

传送门

论文地址:

https://arxiv.org/abs/2012.15723v1


贴主:蓝莓我不蓝于2021_01_04 5:01:24编辑
喜欢蓝莓我不蓝朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助

打开微信,扫一扫[Scan QR Code]
进入内容页点击屏幕右上分享按钮

楼主前期社区热帖:

>>>>查看更多楼主社区动态...



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]