[中文] [English]
🔥 MFTCoder在Atorch框架下支持GPTNeoX模型的微调;
🔥 MFTCoder支持全量的有监督微调;
🔥 MFTCoder支持LoRA微调;
训练数据为jsonl格式,每一行的数据格式如下,其中chat_rounds字段是必需的,可以根据实际需求添加或删除其他字段。 可以参考项目中的xxx.jsonl文件。
{
"id":0,
"data_name":"code-helper",
"chat_rounds":[
{
"role": "system",
"content": "你是一个智能代码助手,可以回复用户与代码相关的问题",
"chat_round_id": 0
},
{
"role": "human",
"content": "写一个快速排序",
"chat_round_id": 1
},
{
"role": "bot",
"content": "以下是一个快速排序算法xxxxxx",
"chat_round_id": 1
},
{
"role": "human",
"content": "解释一下这段代码",
"chat_round_id": 2
},
{
"role": "bot",
"content": "好的,这段代码xxx",
"chat_round_id": 2
}
]
}
推理数据格式为模型在训练数据格式下拼接的字符串形式,它也是推理时输入prompt拼接的方式:
"""
<|role_start|>system<|role_end|>这是System指令
<|role_start|>human<|role_end|>这是第1轮用户输入的问题
<|role_start|>bot<|role_end|>这是第1轮模型生成的内容</s>
<|role_start|>human<|role_end|>这是第2轮用户输入的问题
<|role_start|>bot<|role_end|>这是第2轮模型生成的内容</s>
...
...
...
<|role_start|>human<|role_end|>这是第n轮用户输入的问题
<|role_start|>bot<|role_end|>{模型现在要生成的内容}</s>
"""
目前 "MFTCoder/mft_atorch" 代码库支持全量参数指令微调和LoRA指令微调。 目前仅支持GPTNeoX模型的训练,理论上,HuggingFace上开源的GPTNeoX模型权重,均可使用本项目进行训练。
我们将训练中使用的各种组件抽取出来,以便后续的扩展和优化,详见主目录下的实现。微调训练的入口目录是train/
, 训练入口文件是train/run_train.py
, 参数配置存储在启动脚本train/run_gpt_*.sh
等文件中,方便统一管理和更改。
训练时,我们将多轮对话拼接成如下格式,然后进行tokenize。其中<|role_start|>human<|role_end|>表示human输入提示符,<|role_start|>bot<|role_end|>表示bot输出提示符,</s>
表示eos_token。
"<|role_start|>human<|role_end|>input1</s>target1</s>input2</s>target2</s>...
在计算loss时,我们通过mask的方式,input部分的loss不参与参数更新,只有“target”部分的loss参与参数更新。 这种方式充分利用了模型并行计算的优势,训练更加高效,且多轮对话中的每个target部分都参与了训练,训练更充分。 否则,就需要把一个n轮对话,拆分成n条数据,且只计算最后一个target的loss,大大降低了训练效率。
执行如下命令即可进行全量SFT:
sh run_gpt_mft.sh 10 1 8 5
需注意,启动脚本后的四个参数,分别是:
- 第一个参数是总的per gpu batch size
- 第二个参数是tensor parallel数(暂时只支持1)
- 第三个参数是data parallel数,与所用GPU数保持一致
- 第四个参数是训练epoch数
后面其他的训练方式启动脚本,也同样需要配置这四个参数
执行如下命令即可进行Lora微调:
sh run_gpt_mft_peft.sh 10 1 8 5
train/run_gpt_*.sh
中的主要参数说明如下,以下参数可以根据需求进行修改,其他参数建议不做修改:
-
tokenize_mode: 目前仅支持"sft"。
-
train_mode: 目前仅支持"sft"。
-
load_raw_dataset: 需要保持"True",后续会支持其它模式数据,当前仅支持jsonl输入
-
data_paths: "[path1,path2,path3]" 输入数据地址,字符串,开头结尾用[],中间用
,
间隔不同path,每个path是一个目录,目录的最后一级名字作为任务名称,下面包含1到多个jsonl数据。 -
output_dir: 训练输出目录,存储checkpoint、lora_adaptor checkpoint等。
-
tensorboard_dir: 可以暂时忽略,实际tensorboard存储在output_dir的runs目录下。
-
model_type: 目前仅支持 gpt_neox。
-
peft_type: 目前仅支持 lora。
-
pretrained_model_path: 预训练模型的本地目录。
-
total_train_batch_size: 所有显卡train的batch size的总和,会根据启动脚本时输入的per gpu batch size自动计算。
-
per_device_valid_batch_size: 每张显卡eval的batch size,会根据启动脚本时输入的per gpu batch size自动计算。
-
gradient_accumulation_steps: 梯度累计步数。global batch=num_gpus * per_device_train_batch_size * gradient_accumulation_steps。
-
checkpoint_activations: 如果显存捉襟见肘,可以开启。以时间换空间,模型不缓存激活状态,会进行两次forward计算,以节省显存。
-
learning_rate: 学习率。全量参数微调的时候,建议小一些,1e-5或5e-6。qlora中的学习率设置更大一些,一般为1e-4、2e-4。
-
min_lr: 最低学习率, 一般是learning_rate的十分之一。
-
seq_length: 训练时的最大长度。按照自己的设备进行设置,越长需要占用越多显存。
-
log_interval: 每隔多少步统计一次train loss。
-
checkpointing_steps: 每隔多少步保存一个模型。
-
evalation_steps: 每隔多少步在验证集上evaluate一次。
-
early_stopping_patience: 多少个eval point不继续收敛,则停止训练。
-
lr_scheduler_type: 学习率变化策略。
-
num_warmup_steps: warm up步数,学习率经过多少步,增长到指定的数值。
-
seed: 随机种子,用于复现实验结果。
-
train_iters: 可以暂时设为比较小的数,如10,实际上不会影响训练步数,留作后面拓展读取其他形式数据集的功能。
-
valid_iters: 可以暂时设为比较小的数,如10,实际上不会影响训练步数,留作后面拓展读取其他形式数据集的功能。
-
evaluation_strategy: 训练期间evaluate的策略,"steps"表示每隔"valid_interval"步做一次evaluate,"epoch"表示每隔一个epoch做一次evaluate,支持同时开启。
-
save_strategy: 训练期间保存模型权重的策略,"steps"表示每隔"checkpointing_steps"步保存一次。
-
extra_save_by_epoch: 每过一个epoch是否要保存一个epoch级别的checkpoint。
-
save_total_limit: 最多保留的模型checkpoint个数,一般设置为2,会保留valid loss最低,以及最新的checkpoint,注意epoch级别的checkpoint会一直保留,且不受限制。
-
weighted_loss_mode: 多任务训练的loss加权方式。
如果使用LoRA进行训练,本项目仅保存adapter的权重和配置文件,需要将adapter权重与base model进行合并。脚本见utils/merge_base_and_lora_to_hf.py
我们提供了单轮对话和多轮对话的如下脚本,该脚本可同时兼容大部分huggingface格式的模型。
from transformers import (
AutoTokenizer,
AutoModelForCausalLM,
)
tokenizer = AutoTokenizer.from_pretrained(mode_name_or_path, trust_remote_code=True, use_fast=False, legacy=False)
tokenizer.padding_side = "left"
tokenizer.pad_token_id = tokenizer.convert_tokens_to_ids("<unk>")
tokenizer.eos_token_id = tokenizer.convert_tokens_to_ids("</s>")
model = AutoModelForCausalLM.from_pretrained(mode_name_or_path, trust_remote_code=True)
HUMAN_ROLE_START_TAG = "<|role_start|>human<|role_end|>"
BOT_ROLE_START_TAG = "<|role_start|>bot<|role_end|>"
texts = ["write a python function of quick sort."]
texts = [f"{HUMAN_ROLE_START_TAG}{text}{BOT_ROLE_START_TAG}" for text in texts]
inputs = tokenizer(texts, return_tensors='pt', padding=True, add_special_tokens=False).to("cuda")
outputs = model.generate(
inputs=inputs["input_ids"],
attention_mask=inputs["attention_mask"],
max_new_tokens=512,
top_p=0.95,
temperature=0.1,
do_sample=True,
eos_token_id=tokenizer.eos_token_id,
pad_token_id=tokenizer.pad_token_id
)
gen_text = tokenizer.batch_decode(outputs[:, inputs["input_ids"].shape[1]:], skip_special_tokens=True)
print(gen_text)
生成脚本中的top_p、temperature、repetition_penalty、do_sample等参数对模型的生成效果影响较大,可按照自己的使用场景进行调试修改。 实践中,在代码生成场景中,如果采样模式,do_sample=True, top_p=0.95, temperature=0.1是pass@1指标的不错选择; 如果非采样模式, do_sample=False, beam_num=1或者3是不错的选择,其中beam_num=1即为greedy decoding。
如果发生OOM,可以缩小per GPU batch size (启动训练脚本时的第一个参数)、seq_length等参数来缓解。也可以设gradient_checkpointing=true,可以大幅降低显存占用,但训练速度会变慢一些。