LLM | 正在尝试使用 LLaMA-Factory,是?

摘要:正在看的博客:知乎 | LLaMA-Factory QuickStart 好像是作者写的博客:知乎 | 单卡 3 小时训练专属大模型 Agent:基于 LLaMA Factory 实战 其他博客: 知乎 | LLaMA-Factory 全参
正在看的博客:知乎 | LLaMA-Factory QuickStart 好像是作者写的博客:知乎 | 单卡 3 小时训练专属大模型 Agent:基于 LLaMA Factory 实战 其他博客: 知乎 | LLaMA-Factory 全参 SFT 训练 Qwen-2.5-7B-Instruct 踩坑记 知乎 | LLaMA-Factory 微调 Qwen2.5-VL 记录 知乎 | 基于 LLaMA-Factory 的大模型微调技巧与实践 知乎 | 自建数据集,利用 LLama-Factory 微调大模型 如何从 HuggingFace 上下载模型: 感觉很全的参考博客:知乎 | 如何快速下载 huggingface 模型 —— 全方法总结 简单记录配置 LLaMA-Factory 的流程: 目录1 安装2 下载一个大模型,并测试大模型是否正常3 LoRA SFT 微调4 尝试 web ui 1 安装 git clone https://github.com/hiyouga/LLaMA-Factory.git conda create -n <env_name> python=3.11 conda activate <env_name> cd LLaMA-Factory pip install -e '.[torch,metrics]' 2 下载一个大模型,并测试大模型是否正常 下载一个大模型: export HF_ENDPOINT=https://hf-mirror.com # 换成国内源 export HF_HUB_ENABLE_HF_TRANSFER=0 # 好像是提升下载速度的工具,但开了之后卡死了,所以不敢开了 huggingface-cli download deepseek-ai/DeepSeek-R1-Distill-Qwen-7B \ --local-dir ~/<model_dir>/DeepSeek-R1-Distill-Qwen-7B \ # 换成自己要存 model 的目录 --local-dir-use-symlinks False \ --resume-download 测试下载的模型是否正常:运行 CUDA_VISIBLE_DEVICES=0 python test.py # test.py 的内容 import torch from transformers import AutoTokenizer, AutoModelForCausalLM model_path = "<model_dir>/DeepSeek-R1-Distill-Qwen-7B" # 加载 tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained( model_path, trust_remote_code=True, torch_dtype=torch.float16, device_map="auto" ) # 准备测试问题 question = "你好,请介绍一下你自己。
阅读全文