Fine Tuning——Prompt-Learning && Delta Tuning

预训练大模型只能提供较好的初始化,面对纷繁复杂的NLP任务场景,需要进一步的微调训练。

T5
  • 110亿参数
  • 从训练“分类层”转为 训练 “encoder-decoder”
  • sequence to sequence 序列到序列的训练,输出token而不是分类
  • demonstration 例证
GPT3
  • 1750亿参数
    模型太大,单机根本无法微调

  • 没有任何参数被微调,通过prompt方式使用

  • Descriptions(Prompts) + Few-shot examples to generate tokens
    in-context leaning :大模型见过几个examples再输出

  • 优点
    更好的语言理解和语言生成效果
    更大的容积去学习新的知识

Fine tuning 的改变

以前的方法微调要改变全部模型的参数,在GPT3上是不现实的,在110b其实就很难了
每个任务对应一个100多亿的模型,100个任务就有100个模型,从存储角度来讲也不现实

高效的微调大模型 Effective Model Adaptation

从task 和 data的角度出发

prompt-learning
给模型加入一些额外的上下文 trigger出一些token
让输入数据变得更具体

从优化的角度出发

delta Tuning
用小参数去驱动大参数

上一篇:分布式中的CAP定理和BASE理论与强弱一致性


下一篇:16:00面试,16:06就出来了,问的问题有点变态。。。