随着ChatGPT的成功问世,NLP正式迎来了新纪元。各大厂商为了提高自己的竞争力,也相继开源了自己的大模型。但是这些大模型在某些特定领域中所表现出的效果并不一定能达到用户的预期。为了使得模型在特定领域或下游任务中,能更好地满足用户和业务的需求,如何对开源大模型进行高效地微调成为了一项值得研究的工作。
目前,常见的微调方案包括两种:全量参数微调和参数高效微调。
more >>全量参数微调(Full Parameter Fine-Tuning):直接对预训练模型所有参数进行微调,这种方法所需要消耗的资源和算力很大。
参数高效微调(Parameter-Efficient Fine-Tuning,PEFT):只微调少量(或额外的)模型参数,便可达到与全量微调相当的效果,从而大大降低了计算和存储成本。