1. 赛题
参赛者需要构建端到端的评论分析系统,完成三大核心任务:
- 商品识别
- 输入:视频描述文本(video_desc)和标签(video_tags)
- 输出:精准识别推广商品名称(Xfaiyx Smart Translator/Recorder)
- 多维情感分析
- 维度:情感倾向(5类)、用户场景、用户疑问、用户建议
- 挑战:处理隐晦表达如"这重量出门带着刚好"(场景暗示)
- 评论聚类与主题提炼
- 对5类特定评论进行聚类分析
- 生成5-8个具有代表性的主题词
由于这里只有很少量的数据是有标签的(商品识别中总共86个数据,大约30个有label;评论总共6400+数据,大约1700+有label),而且不同类别的分布数目相差很大,因此很明显不能从头训练模型。如果选用传统的DNN,如Seq2Seq等,即使微调也需要足够的数据,没有能力接收少量且差异化特别大的数据就能够进行分类。
因此,我们需要使用原本就具有所需的分类能力的模型——LLM
2. 商品识别——SFT 微调
主要流程为:
- 下载模型权重checkpoint
- 处理数据集dataset
- 微调LLM
- 在测试集上运行
2.1 准备第三方工具
这里作者使用了算力平台,有条件的可以本地部署,也可以直接调用大模型的API
2.1.1 安装 LLaMA-Factory
LLaMA-Factory可以很方便的进行Pre-Training, SFT, PPO, DPO等
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]" --no-build-isolation
2.1.2 安装 huggingface_hub
后续checkpoint都需要从huggingface中下载,相比较本地下载再upload到服务器上,直接从官网下载会方便很多
pip install -U huggingface_hub
直接从官网下载网速会有点慢,可以使用国内镜像
vim ~/.bashrc# vim下修改文件, 增加下方内容
export HF_ENDPOINT="https://hf-mirror.com"
# 保存并退出source ~/.bashrc
2.2 下载模型权重
下载过程由于耗时较长,为了防止ssh关闭导致下载终止,可以使用screen开个后台
选择参数量较小的Qwen3-1.7B进行微调,在单卡下微调时长约为3分钟
huggingface-cli download --resume-download Qwen/Qwen3-1.7B --local-dir models/qwen3-1.7B
2.3 处理数据
大致思路为:
- 将video_desc与video_tag合并,作为模型输入
- 添加instruction作为prompt
- 选择有label的部分,作为训练集
那么直接贴代码:
import argparse
import pandas as pd
from transformers import AutoTokenizer, AutoModelForCausalLMvideo_data = pd.read_csv("origin_videos_data.csv")
video_data["text"] = video_data["video_desc"].fillna("") + " " + video_data["video_tags"].fillna("")def preprocess_data():text_data = video_data[["text", "product_name"]]text_data = text_data[text_data["product_name"].notnull()]instruction = '''你是一个专业的电商产品识别系统。请从视频描述中识别推广商品,必须严格选择以下选项之一:- Xfaiyx Smart Translator- Xfaiyx Smart Recorder规则说明:1. 当描述提到"翻译"、"多语言"等关键词时选择Translator2. 当描述出现"录音"、"转写"等关键词时选择Recorder3. 遇到不确定情况时选择更符合主要功能的选项示例:输入:这款设备支持实时语音转文字输出:Xfaiyx Smart Recorder'''text_data["instruction"] = instruction.strip()text_data.to_json("text_data.json", orient="records", force_ascii=False)if __name__ == "__main__":parser = argparse.ArgumentParser()parser.add_argument("--preprocess", type=bool, default=False)parser.add_argument("--device", type=str, default="cuda")args = parser.parse_args()if args.preprocess:preprocess_data()
运行后数据变为:
2.4 微调模型
2.4.1 修改data_info
在LLaMA-Factory/data/dataset_info.json中增加自定义数据集
"dw_data_video": {"file_name": "DW/text_data.json","formatting": "alpaca","spilt": "train","columns": {"query": "text","response": "product_name","prompt": "instruction"}},
参数的具体含义如下:
- file_name : 数据集的路径
- formatting : 数据集的格式,主流LLM训练数据的格式分为alpaca和sharegpt
- split : 将数据集划分为train, test, val,默认仅作为train
- columns : 指定哪个key作为模型接收的输入/输出
原本模型是以"input" : “message"作为模型接收到的输入,但dw_data_video中模型输入为"text” : “message”,因此需要修改
2.4.2 修改微调配置
设置sft配置文件,文件路径随意,但在后续训练启动命令时,需要指定文件路径
### model
model_name_or_path: models/qwen3-1.7B # 下载预训练模型的路径
### method
stage: sft
do_train: true
finetuning_type: lora #微调方式
lora_target: all### dataset
dataset: dw_data_video
template: qwen3 # 注意:这里的参数选项要严格与官方给出的表格一致
cutoff_len: 2048
max_samples: 1000
overwrite_cache: true
preprocessing_num_workers: 16### output
output_dir: output/sft/lora/qwen3-1.7B-dw-data-video
logging_steps: 10
save_steps: 500
plot_loss: true
overwrite_output_dir: true### train
per_device_train_batch_size: 16
gradient_accumulation_steps: 8
learning_rate: 1.0e-4
num_train_epochs: 10
lr_scheduler_type: cosine
warmup_ratio: 0.1
bf16: true
ddp_timeout: 180000000
run_name: qwen3-1.7B-dw-data-video # 用于wandb展示过程### eval
val_size: 0.1
per_device_eval_batch_size: 1
eval_strategy: steps
eval_steps: 500
2.4.3. 启动训练
注意文件路径需要与上面创建文件时的路径一致
llamafactory-cli train LLaMA-Factory/workspace/lora/sft/sft_lora_qwen3.yaml
官方给出的代码为llamafactory-cli train xxxx.yaml,但由于我们的yaml文件存储路径不一定在官方默认路径下,因此使用完整路径更稳当
注意:启动时,pwd一定要在LLaMA-Factory文件夹下,不然会报错No such file data/dataset_info.json
2.5 运行测试集数据
import argparse
import pandas as pd
from transformers import AutoTokenizer, AutoModelForCausalLMvideo_data = pd.read_csv("origin_videos_data.csv")
video_data["text"] = video_data["video_desc"].fillna("") + " " + video_data["video_tags"].fillna("")def preprocess_data():text_data = video_data[["text", "product_name"]]text_data = text_data[text_data["product_name"].notnull()]instruction = '''你是一个专业的电商产品识别系统。请从视频描述中识别推广商品,必须严格选择以下选项之一:- Xfaiyx Smart Translator- Xfaiyx Smart Recorder规则说明:1. 当描述提到"翻译"、"多语言"等关键词时选择Translator2. 当描述出现"录音"、"转写"等关键词时选择Recorder3. 遇到不确定情况时选择更符合主要功能的选项示例:输入:这款设备支持实时语音转文字输出:Xfaiyx Smart Recorder'''text_data["instruction"] = instruction.strip()text_data.to_json("text_data.json", orient="records", force_ascii=False)# 定义推理函数
def predict_product(text, device):instruction = ("你是一个专业的电商产品识别系统。请从视频描述中识别推广商品,必须严格选择以下选项之一:\n"" - Xfaiyx Smart Translator\n"" - Xfaiyx Smart Recorder\n\n""规则说明:\n""1. 当描述提到\"翻译\"、\"多语言\"等关键词时选择Translator\n""2. 当描述出现\"录音\"、\"转写\"等关键词时选择Recorder\n""3. 遇到不确定情况时选择更符合主要功能的选项")input_text = f"{instruction}\n\n输入:{text}\n输出:"inputs = tokenizer(input_text, return_tensors="pt").to(device)outputs = model.generate(inputs.input_ids,max_new_tokens=20, # 限制生成长度num_beams=1, # 使用贪婪搜索do_sample=False, # 禁用随机采样pad_token_id=tokenizer.eos_token_id # 设置填充token)full_output = tokenizer.decode(outputs[0], skip_special_tokens=True)generated_output = full_output[len(input_text):] # 提取生成部分# 清理输出结果return generated_output.strip().split("\n")[0]if __name__ == "__main__":parser = argparse.ArgumentParser()parser.add_argument("--preprocess", type=bool, default=False)parser.add_argument("--device", type=str, default="cuda")args = parser.parse_args()if args.preprocess:preprocess_data()device = args.devicemodel_path = 'output/sft/lora/qwen3-1.7B-DWData'tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)model = AutoModelForCausalLM.from_pretrained(model_path, trust_remote_code=True).to(device)# 遍历csv,推理并保存结果for index, row in video_data.iterrows():# 如果product_name列非空则保存product_nameif pd.notna(row["product_name"]):video_data.at[index, "prediction"] = row["product_name"]continuetext = row["text"]prediction = predict_product(text, device)video_data.at[index, "prediction"] = prediction# 用prediction列覆盖product_name列video_data["product_name"] = video_data["prediction"]# 只保存 video_id 和 product_name 列video_data = video_data[["video_id", "product_name"]]video_data.to_csv("video_data_with_predictions.csv", index=False)
那么此时输出的文件就是预测后的文件
将输出的文件和Baseline的文件上传,发现分数提高了10分左右,目前来到了180分,说明LLM微调后效果还不错
后续内容努力码字中