- 数据质量非常重要,GPT-4是一个很好的数据标注工具。制造数据应当有现实的数据支持,全部的生成数据将促使“幻觉”问题的出现。
- 如果你的微调数据很小(例如几百条),可以使用“chat”模型进行监督微调,较大的微调数据可以使用“base”模型进行监督微调。
- 为了保持模型的一些原有能力,在监督微调阶段仍然需要融入一些通用的监督数据,而且通常情况下,通用监督数据数量是多于领域监督数据的(例如在训练医疗LLM时需要混合比医疗数据更多的通用监督数据)。
- QLoRA有时候表现比LoRA的微调效果表现更好。
- 监督微调过程通常不是为了给LLM注入更多知识,而是激活模型的对话能力,学习新知识通常在预训练阶段完成。如果不得不在监督微调阶段注入新知识,那么对于一条知识,则需要对应几十条不同的监督数据构造才能注入到LLM这条知识。
- 监督微调阶段没有最好的参数设置,这个过程需要多次的实验设置最好的参数。
更多的实验 tricks 请参考CareGPT:GitHub - WangRongsheng/CareGPT: CareGPT (关怀GPT)是一个医疗大语言模型,同时它集合了数十个公开可用的医疗微调数据集和开放可用的医疗大语言模型,包含LLM的训练、测评、部署等以促进医疗LLM快速发展。Medical LLM, Open Source Driven for a Healthy Future.