趋近智
通过人类偏好数据训练奖励模型(RM)是奖励建模的一个实际应用。训练过程使用Hugging Face的Transformers和TRL(Transformer强化学习)等常用库,使实施变得简单直接。目标是构建一个模型,它接收一个提示和一个回应,然后输出一个标量分数,表示人类可能偏好该回应的程度。
编写代码前,请确保你的环境已配置好PyTorch或TensorFlow、Transformers库、Datasets和TRL。
pip install torch transformers datasets trl accelerate bitsandbytes
(如果你使用TensorFlow,请将torch替换为tensorflow,尽管TRL目前对PyTorch的支持更好。)
我们将使用一个围绕成对偏好构建的数据集。一个典型的条目包括:
prompt(提示)。chosen(选择的)回应(人类偏好的那个)。rejected(拒绝的)回应(人类不偏好的那个)。Anthropic的HH-RLHF数据集或Hugging Face Hub上可用的子集(例如trl-internal-testing/hh-rlhf-trl-style)都遵循这种结构。对于本示例,我们假设已将此类数据集加载到Hugging Face Dataset对象中。
from datasets import load_dataset
# 加载一个示例数据集(请替换为你的实际数据集)
# 本示例使用一小部分子集进行演示
dataset = load_dataset("trl-internal-testing/hh-rlhf-trl-style", split="train[:1%]")
# 查看结构
print(dataset[0])
# 预期输出结构:{'prompt': '...', 'chosen': '...', 'rejected': '...'}
奖励模型通常使用预训练语言模型主干(例如distilbert-base-uncased、roberta-base,或根据你的需求和资源使用更大的模型)和一个回归头。这个头通常是在基础模型的输出之上添加的一个单层线性层。它将输入序列(提示 + 回应)的最终隐藏状态表示映射到一个标量值——即奖励分数。
示意图展示了奖励模型架构。输入提示和回应由预训练语言模型主干处理,然后一个线性头输出单个标量奖励分数。
奖励模型需要在提示的上下文中处理chosen和rejected两种回应。我们将输入格式化为提示 + 回应并进行分词。由于模型一次处理一对(chosen,rejected)以计算损失,我们对于每个示例都需要对这两种变体进行分词。
TRL库提供了简化此过程的实用工具,但让我们理解其核心思想。我们需要一个函数,它接收一个数据条目,并返回chosen路径和rejected路径的词元化版本。
from transformers import AutoTokenizer
import torch
# 为你的奖励模型选择一个基础模型
model_name = "distilbert-base-uncased" # 使用一个小型模型进行演示
tokenizer = AutoTokenizer.from_pretrained(model_name)
# 确保填充词元已设置,如果尚未设置
if tokenizer.pad_token is None:
tokenizer.pad_token = tokenizer.eos_token
def preprocess_function(examples):
# 对 (提示 + chosen回应) 和 (提示 + rejected回应) 对进行分词
tokenized_chosen = tokenizer(
examples['prompt'] + examples['chosen'],
truncation=True,
padding="max_length", # 如果使用动态填充,则使用 'longest'
max_length=512 # 根据需要调整 max_length
)
tokenized_rejected = tokenizer(
examples['prompt'] + examples['rejected'],
truncation=True,
padding="max_length", # Or 'longest'
max_length=512
)
# RewardTrainer 期望名为 'input_ids_chosen'、'attention_mask_chosen' 等列
features = {}
features['input_ids_chosen'] = tokenized_chosen['input_ids']
features['attention_mask_chosen'] = tokenized_chosen['attention_mask']
features['input_ids_rejected'] = tokenized_rejected['input_ids']
features['attention_mask_rejected'] = tokenized_rejected['attention_mask']
return features
# 应用预处理
# 使用 remove_columns 以仅保留 RewardTrainer 所需的数据
tokenized_dataset = dataset.map(
preprocess_function,
batched=True,
remove_columns=dataset.column_names
)
print("Sample tokenized features:", tokenized_dataset[0].keys())
# 预期:dict_keys(['input_ids_chosen', 'attention_mask_chosen', 'input_ids_rejected', 'attention_mask_rejected'])
TRL库提供了一个方便的RewardTrainer类,它类似于标准的Transformers Trainer,但专门为使用成对偏好损失的奖励模型训练而设计。
num_labels=1用于标量奖励输出。TrainingArguments定义学习率、批大小、训练轮次等超参数。train()方法。from transformers import AutoModelForSequenceClassification, TrainingArguments
from trl import RewardTrainer, RewardConfig
# 1. 加载模型
# 使用 AutoModelForSequenceClassification,因为奖励模型的头部类似于分类头部
model = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=1)
# 如果有GPU可用,可选地将模型移至GPU
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)
# 2. 配置训练参数(RewardConfig 继承自 TrainingArguments)
# 使用 RewardConfig 进行特定的奖励模型设置,尽管 TrainingArguments 也能工作。
training_args = RewardConfig(
output_dir="./reward_model_output",
num_train_epochs=1, # 根据数据集大小和收敛情况调整训练轮次
per_device_train_batch_size=4, # 根据GPU内存调整
gradient_accumulation_steps=1,
learning_rate=2e-5,
report_to="none", # 为简化起见,禁用 wandb/tensorboard 报告
remove_unused_columns=False, # 已在预处理中处理
evaluation_strategy="no", # 如果需要,添加评估数据集和策略
save_strategy="epoch",
logging_steps=10, # 每10步记录一次训练损失
max_length=512, # 重要:必须与预处理的 max_length 匹配
)
# 3. 实例化 RewardTrainer
trainer = RewardTrainer(
model=model,
tokenizer=tokenizer,
args=training_args,
train_dataset=tokenized_dataset,
# 如果有评估数据集,请在此处传入
# peft_config=None, # 可选:在此处配置 PEFT,如 LoRA
)
# 4. 训练模型
print("开始训练奖励模型...")
train_results = trainer.train()
print("训练完成。")
# 保存最终模型
trainer.save_model("./reward_model_final")
tokenizer.save_pretrained("./reward_model_final")
print("模型和分词器已保存到 ./reward_model_final")
在底层,RewardTrainer实现了前面讨论的损失函数。对于批次中的每一对:
chosen回应的奖励分数:r选择=RM(提示,选择)。rejected回应的奖励分数:r拒绝=RM(提示,拒绝)。chosen回应分配比rejected回应更高的分数。尽管为简洁起见,我们在示例中跳过了评估,但它很重要。一个常用的指标是准确率:给定一个保留的偏好对集合(prompt, chosen, rejected),训练后的奖励模型多久能正确地给chosen回应打出更高的分数?
准确率=∣评估集∣1∑(提示,c,r)∈评估集I[RM(提示,c)>RM(提示,r)]
其中 I[⋅] 是指示函数(如果为真则为1,否则为0)。
你可以通过使用相同的preprocess_function创建一个eval_dataset,将其传递给RewardTrainer,并在TrainingArguments中设置evaluation_strategy来实现这一点。训练器随后会在训练期间报告准确率。
监控训练损失和评估准确率。损失应该降低,准确率应该提升。
示意图显示了奖励模型训练期间训练损失的降低和评估准确率的提升。
你现在已经有一个训练好的奖励模型并保存到磁盘。该模型包含了从你的数据集中学习到的人类偏好。它已准备好作为RLHF流程下一阶段的目标函数:使用强化学习(具体来说,在我们的例子中是PPO)微调语言模型策略。奖励模型生成的分数将引导策略模型生成更符合人类期望的回应。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造