LLaMA-Factory 简介
LLaMA-Factory 是一个开源项目,它提供了一套全面的工具和脚本,用于微调、提供 LLaMA 模型并对其进行基准测试。LLaMA(大型语言模型适应)是由 Meta AI 开发的基础语言模型的集合,在各种自然语言任务中表现出强大的性能。
项目地址: https://gitcode.com/gh_mirrors/ll/LLaMA-Factory
LLaMA-Factory 存储库通过提供以下内容,使 LLaMA 模型入门变得容易:
- 用于数据预处理和分词化的脚本
- 用于微调 LLaMA 模型的训练管道
- 用于使用经过训练的模型生成文本的推理脚本
- 用于评估模型性能的基准测试工具
- 用于交互式测试的 Gradio Web UI
LLaMA-Factory安装步骤
准备工作
操作系统: 支持 Linux 和 macOS,建议使用 Ubuntu 20.04 或更高版本。
Python 环境: 建议使用 Python 3.8 或更高版本。
CUDA 支持: 如果使用 GPU 进行训练,确保已安装 CUDA 11.x 或更高版本。
Git: 用于克隆项目代码。
详细安装步骤
步骤 1: 克隆项目代码
首先,使用 Git 克隆 LLaMA-Factory 项目到本地:
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
步骤 2: 创建虚拟环境
建议在虚拟环境中安装项目依赖,以避免与其他项目冲突:
python3 -m venv llama_env
source llama_env/bin/activate
步骤 3: 安装依赖
使用 pip
安装项目所需的依赖包:
pip install -r requirements.txt
步骤 4: 配置环境变量
根据需要配置环境变量,例如 CUDA 路径等。可以在 .env
文件中设置:
echo "CUDA_HOME=/usr/local/cuda" >> .env
步骤 5: 启动 WebUI
安装完成后,可以通过以下命令启动 WebUI:
python train_web.py
启动后,打开浏览器访问 http://localhost:7860
,即可进入 LLaMA-Factory 的 WebUI 界面。
如何设置 LLaMA-Factory
要开始使用,您需要使用所需的依赖项设置 Python 环境。建议使用虚拟环境来隔离包。
#创建并激活虚拟环境
python -m venv llama-env
source llama-env/bin/activate
#安装所需的软件包
pip install -r requirements.txt
LLaMA Factory仓库中的requirements.txt文件指定了必要的Python包,包括PyTorch、Transformers、Datasets等。
您还需要访问预训练的LLaMA模型权重。权重不公开,但可以向Meta索取用于研究目的。将模型权重放置在llama_hecks目录中。
LLaMA-Factory的数据准备
下一步是准备数据集进行微调。LLaMA Factory希望训练数据采用特定的JSON格式:
[
{
"instruction": "What is the capital of France?",
"input": "",
"output": "Paris is the capital of France."
},
...
]
每个JSON对象代表一个训练示例,其中包含以下字段:
指令:任务指令或提示
输入:任务的附加上下文(可以为空)
输出:目标完成或响应
您可以以这种格式准备自己的数据集,也可以使用数据目录中提供的示例数据集之一,如羊驼数据集。
要标记和处理数据集,请运行:
python data_preprocess.py \
--data_path data/alpaca_data.json \
--save_path data/alpaca_data_tokenized.json
这将加载JSON数据集,对文本字段进行标记,并将标记后的数据保存到磁盘。使用的标记器是Transformers库中的LlamaTokenizer。
LLaMA-Factory微调Llama
准备好数据后,您现在可以使用finetune.py脚本启动微调运行:
python finetune.py \
--model_name llama-7b \
--data_path data/alpaca_data_tokenized.json \
--output_dir output/llama-7b-alpaca \
--num_train_epochs 3 \
--batch_size 128 \
--learning_rate 2e-5 \
--fp16
关键论点是:
model_name:要微调的基本LLaMA模型,例如LLaMA-7b
data_path:标记化数据集的路径
output_dir:保存微调模型的目录
num_train_epochs:训练周期数
batch_size:训练的批量大小
learning_rate:优化器的学习率
fp16:使用fp16混合精度来减少内存使用
该脚本将加载预训练的LLaMA模型,为训练准备数据集,并使用指定的超参数运行微调过程。微调后的模型检查点将保存在output_dir中。
LLaMA-Factory推理
一旦你有了一个经过微调的LLaMA模型,你就可以在给出提示的情况下使用它来生成文本补全。generate.py脚本提供了一个如何加载模型和执行推理的示例:
python generate.py \
--model_path output/llama-7b-alpaca \
--prompt "What is the capital of France?"
这将从model_path加载微调后的模型,对提供的提示进行标记,并使用模型的generate()方法生成文本补全。您可以自定义生成参数,如max_length、num_beams、temperature等。
Web UI
为了进行交互式测试和演示,LLaMA Factory还提供了Gradio web UI。要启动UI,请运行:
python web_ui.py --model_path output/llama-7b-alpaca
这将启动本地web服务器并在浏览器中打开UI。您可以输入提示,并实时从微调后的模型生成补全。
web_UI.py中的web UI代码展示了如何将模型与Gradio集成以构建交互式演示。您可以针对特定用例扩展和自定义UI。
用LLaMA-Factory进行基准测试
最后,LLaMA Factory用于在各种评估数据集上对微调模型的性能进行基准测试的脚本。benchmark.py脚本提供了一个示例:
python benchmark.py \
--model_path output/llama-7b-alpaca \
--benchmark_datasets alpaca,hellaswag
这将加载微调后的模型,并在指定的benchmark_datasets上评估其性能。该脚本报告了准确性、困惑度和F1分数等指标。
您可以通过实现DatasetBuilder类并将其注册到基准脚本中来添加自己的评估数据集。