LLM | 正在尝试使用 LLaMA-Factory,是?
摘要:正在看的博客:知乎 | LLaMA-Factory QuickStart 好像是作者写的博客:知乎 | 单卡 3 小时训练专属大模型 Agent:基于 LLaMA Factory 实战 其他博客: 知乎 | LLaMA-Factory 全参
正在看的博客:知乎 | LLaMA-Factory QuickStart
好像是作者写的博客:知乎 | 单卡 3 小时训练专属大模型 Agent:基于 LLaMA Factory 实战
其他博客:
知乎 | LLaMA-Factory 全参 SFT 训练 Qwen-2.5-7B-Instruct 踩坑记
知乎 | LLaMA-Factory 微调 Qwen2.5-VL 记录
知乎 | 基于 LLaMA-Factory 的大模型微调技巧与实践
知乎 | 自建数据集,利用 LLama-Factory 微调大模型
如何从 HuggingFace 上下载模型:
感觉很全的参考博客:知乎 | 如何快速下载 huggingface 模型 —— 全方法总结
简单记录配置 LLaMA-Factory 的流程:
目录1 安装2 下载一个大模型,并测试大模型是否正常3 LoRA SFT 微调4 尝试 web ui
1 安装
git clone https://github.com/hiyouga/LLaMA-Factory.git
conda create -n <env_name> python=3.11
conda activate <env_name>
cd LLaMA-Factory
pip install -e '.[torch,metrics]'
2 下载一个大模型,并测试大模型是否正常
下载一个大模型:
export HF_ENDPOINT=https://hf-mirror.com # 换成国内源
export HF_HUB_ENABLE_HF_TRANSFER=0 # 好像是提升下载速度的工具,但开了之后卡死了,所以不敢开了
huggingface-cli download deepseek-ai/DeepSeek-R1-Distill-Qwen-7B \
--local-dir ~/<model_dir>/DeepSeek-R1-Distill-Qwen-7B \ # 换成自己要存 model 的目录
--local-dir-use-symlinks False \
--resume-download
测试下载的模型是否正常:运行 CUDA_VISIBLE_DEVICES=0 python test.py
# test.py 的内容
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_path = "<model_dir>/DeepSeek-R1-Distill-Qwen-7B"
# 加载
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
model_path,
trust_remote_code=True,
torch_dtype=torch.float16,
device_map="auto"
)
# 准备测试问题
question = "你好,请介绍一下你自己。
