题名基于文本预训练语言模型的样本级提示学习方法研究
作者Jin feihu
答辩日期2023-05
文献子类硕士
关键词预训练语言模型 提示学习 参数高效微调 少样本学习
英文摘要

预训练语言模型通过自监督学习的方式在大规模无标注的语料上学习通用的语言表示,在各种自然语言处理任务中表现不俗。当前,预训练语言模型已成为各种自然语言处理任务的基础模型,预训练加微调也成为解决具体自然语言处理任务的主要方法。最近的研究表明模型越大,在下游任务中的表现越好。然而,这种预训练加微调的范式需要为每个下游任务存储一个单独经过全参数优化的模型,存储代价非常昂贵。随着预训练语言模型参数规模的不断增长,从数亿到千亿甚至万亿,预训练语言模型的高效利用成为一个核心挑战。针对上述挑战,本文的研究工作主要从高效利用预训练语言模型方法中的提示学习方法为切入点展开相关研究,论文的主要贡献和创新归纳如下:

1.提出了基于预训练语言模型的样本级提示学习方法

提示学习已经成为利用预训练语言模型的一种新范式,并且在预训练语言模型中只增加极小的参数就能在下游任务中够取得良好的效果。当前使用的离散和连续的提示学习方法对于特定任务的提示都是固定的,即任务中的所有样本共享相同的提示。然而,一个任务中样本之间的差异较大,其中一些样本容易处理,而另一些样本难以处理。因此,设计可以充分利用具体样本特性的提示学习方法非常必要。为此,本文提出了一种样本级的提示学习方法,该方法为每个样本学习不同的提示。具体来讲,所提方法假设每个可学习的提示单元对不同的样本有不同的贡献,通过计算样本和每个提示单元之间的相关性得分来得到每个样本的贡献得分。由于本文所学习的每一个提示单元对于不同的样本都有不同的贡献分数,因此最后的提示单元是样本敏感的。所提方法可以应用于自然语言理解和生成任务中,并且在自回归和掩码预训练语言模型中进行了验证。实验结果表明,所提方法仅需微调预训练语言模型约1.5%~3.6%的参数就可以获得与传统全参数微调相当的效果,特别是在少样本学习的基准测试数据集上,所提方法取得了最优效果。

2.提出了结合任务和样本信息的提示学习方法

本文提出的样本级提示学习方法为每个样本生成依赖于样本自身的提示,但缺乏任务的通用信息,而传统的任务级提示学习方法为相关任务中的所有样本赋予相同的提示信息,忽略了样本自身的特殊性。为此,本文提出了一种高效的结合任务和样本信息的提示学习方法,可以根据不同的任务和样本特性动态决定任务和样本提示信息的融合程度,从而生成包含任务和样本信息的提示信息。本文在十三个自然语言理解数据集上进行了验证。实验结果表明,在少样本学习场景下,相比现有的提示学习方法,所提方法仅需微调约0.12%的参数就能获得显著的性能提升。同时,所提方法也优于现有最先进的其他参数高效少样本学习方法。

语种中文
页码80
内容类型学位论文
源URL[http://ir.ia.ac.cn/handle/173211/52012]  
专题模式识别国家重点实验室_自然语言处理
推荐引用方式
GB/T 7714
Jin feihu. 基于文本预训练语言模型的样本级提示学习方法研究[D]. 2023.
个性服务
查看访问统计
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。


©版权所有 ©2017 CSpace - Powered by CSpace