LLaMA-Factory:简单的微调Llama

LLaMA-Factory 简介

LLaMA-Factory:简单的微调Llama_基准测试

LLaMA-Factory 是一个开源项目,它提供了一套全面的工具和脚本,用于微调、提供 LLaMA 模型并对其进行基准测试。LLaMA(大型语言模型适应)是由 Meta AI 开发的基础语言模型的集合,在各种自然语言任务中表现出强大的性能。

项目地址: https://gitcode.com/gh_mirrors/ll/LLaMA-Factory

LLaMA-Factory 存储库通过提供以下内容,使 LLaMA 模型入门变得容易:

  • 用于数据预处理和分词化的脚本
  • 用于微调 LLaMA 模型的训练管道
  • 用于使用经过训练的模型生成文本的推理脚本
  • 用于评估模型性能的基准测试工具
  • 用于交互式测试的 Gradio Web UI

LLaMA-Factory安装步骤

准备工作

操作系统: 支持 Linux 和 macOS,建议使用 Ubuntu 20.04 或更高版本。

Python 环境: 建议使用 Python 3.8 或更高版本。

CUDA 支持: 如果使用 GPU 进行训练,确保已安装 CUDA 11.x 或更高版本。

Git: 用于克隆项目代码。

详细安装步骤

步骤 1: 克隆项目代码

首先,使用 Git 克隆 LLaMA-Factory 项目到本地:

git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
步骤 2: 创建虚拟环境

建议在虚拟环境中安装项目依赖,以避免与其他项目冲突:

python3 -m venv llama_env
source llama_env/bin/activate
步骤 3: 安装依赖

使用 pip 安装项目所需的依赖包:

pip install -r requirements.txt
步骤 4: 配置环境变量

根据需要配置环境变量,例如 CUDA 路径等。可以在 .env 文件中设置:

echo "CUDA_HOME=/usr/local/cuda" >> .env
步骤 5: 启动 WebUI

安装完成后,可以通过以下命令启动 WebUI:

python train_web.py

启动后,打开浏览器访问 http://localhost:7860,即可进入 LLaMA-Factory 的 WebUI 界面。

如何设置 LLaMA-Factory

要开始使用,您需要使用所需的依赖项设置 Python 环境。建议使用虚拟环境来隔离包。

#创建并激活虚拟环境
python -m venv llama-env 
source llama-env/bin/activate

#安装所需的软件包
pip install -r requirements.txt

LLaMA Factory仓库中的requirements.txt文件指定了必要的Python包,包括PyTorch、Transformers、Datasets等。

您还需要访问预训练的LLaMA模型权重。权重不公开,但可以向Meta索取用于研究目的。将模型权重放置在llama_hecks目录中。

LLaMA-Factory的数据准备

下一步是准备数据集进行微调。LLaMA Factory希望训练数据采用特定的JSON格式:

[
  {
    "instruction": "What is the capital of France?",
    "input": "",
    "output": "Paris is the capital of France."
  },
  ...
]

每个JSON对象代表一个训练示例,其中包含以下字段:

指令:任务指令或提示

输入:任务的附加上下文(可以为空)

输出:目标完成或响应

您可以以这种格式准备自己的数据集,也可以使用数据目录中提供的示例数据集之一,如羊驼数据集。

要标记和处理数据集,请运行:

python data_preprocess.py \
  --data_path data/alpaca_data.json \
  --save_path data/alpaca_data_tokenized.json

这将加载JSON数据集,对文本字段进行标记,并将标记后的数据保存到磁盘。使用的标记器是Transformers库中的LlamaTokenizer。

LLaMA-Factory微调Llama

准备好数据后,您现在可以使用finetune.py脚本启动微调运行:

python finetune.py \
  --model_name llama-7b \
  --data_path data/alpaca_data_tokenized.json \
  --output_dir output/llama-7b-alpaca \
  --num_train_epochs 3 \
  --batch_size 128 \
  --learning_rate 2e-5 \
  --fp16

关键论点是:

model_name:要微调的基本LLaMA模型,例如LLaMA-7b

data_path:标记化数据集的路径

output_dir:保存微调模型的目录

num_train_epochs:训练周期数

batch_size:训练的批量大小

learning_rate:优化器的学习率

fp16:使用fp16混合精度来减少内存使用

该脚本将加载预训练的LLaMA模型,为训练准备数据集,并使用指定的超参数运行微调过程。微调后的模型检查点将保存在output_dir中。

LLaMA-Factory推理

一旦你有了一个经过微调的LLaMA模型,你就可以在给出提示的情况下使用它来生成文本补全。generate.py脚本提供了一个如何加载模型和执行推理的示例:

python generate.py \
  --model_path output/llama-7b-alpaca \
  --prompt "What is the capital of France?"

这将从model_path加载微调后的模型,对提供的提示进行标记,并使用模型的generate()方法生成文本补全。您可以自定义生成参数,如max_length、num_beams、temperature等。

Web UI

为了进行交互式测试和演示,LLaMA Factory还提供了Gradio web UI。要启动UI,请运行:

python web_ui.py --model_path output/llama-7b-alpaca

这将启动本地web服务器并在浏览器中打开UI。您可以输入提示,并实时从微调后的模型生成补全。

web_UI.py中的web UI代码展示了如何将模型与Gradio集成以构建交互式演示。您可以针对特定用例扩展和自定义UI。

用LLaMA-Factory进行基准测试

最后,LLaMA Factory用于在各种评估数据集上对微调模型的性能进行基准测试的脚本。benchmark.py脚本提供了一个示例:

python benchmark.py \
  --model_path output/llama-7b-alpaca \
  --benchmark_datasets alpaca,hellaswag

这将加载微调后的模型,并在指定的benchmark_datasets上评估其性能。该脚本报告了准确性、困惑度和F1分数等指标。

您可以通过实现DatasetBuilder类并将其注册到基准脚本中来添加自己的评估数据集。

上一篇:java注解原理


下一篇:关于华为交换机/路由器的SSH登陆方式配置与学习