一、先明确整体思路

这套流程的目标是:在 AutoDL 云服务器上安装 LLaMA-Factory,然后对 Qwen3-4B 做微调。

二、环境准备

2.1 购买云主机

笔记里建议使用 AutoDL,选择 3090 显卡即可。如果你本地已经有 GPU 机器,也可以直接用本地环境。

image/png

2.2 准备 Conda 环境

AutoDL 默认已经带有 Miniconda3,可以直接创建环境:

conda create -n llama_factory python=3.10
conda activate llama_factory

# 如果上面这句有问题
source activate llama_factory

2.3 Git 与 CUDA

  • Git:AutoDL 一般已安装,没有的话自行安装。
  • CUDA:AutoDL 通常也已准备好。

三、下载并安装 LLaMA-Factory

3.1 克隆仓库

git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory

3.2 安装依赖

pip install -e .[metrics]

如果要使用 GPU,还要确认 PyTorch 与 CUDA 版本匹配:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

说明:具体的 cu118cu117 需要按你的 CUDA 版本调整。

四、下载 Qwen3-4B 模型

4.1 安装 ModelScope

pip install modelscope

4.2 下载模型

mkdir -p /models/
modelscope download --model Qwen/Qwen3-4B --local_dir /models/Qwen3-4B

五、准备数据集

5.1 把数据文件放到 data 目录

例如:

LLaMA-Factory/data/my_data.json

5.2 编辑 dataset_info.json

data/dataset_info.json 中增加配置,例如:

{
  "my_dataset": {
    "file_name": "alpaca_zh_demo.json"
  }
}

说明:alpaca_zh_demo.json 是框架内置的测试数据集名称,你也可以替换成自己的数据文件。

image/png

六、微调前先做模型测试

先别急着训练,先验证模型是否能正常加载。

CUDA_VISIBLE_DEVICES=0 llamafactory-cli webchat \
  --model_name_or_path /models/Qwen3-4B \
  --template qwen

这条命令会监听 7860 端口。

如果你使用的是 AutoDL,还需要配置自定义服务,把端口映射出来。

image/png

七、为什么这一步不能省

环境、模型、数据配置任何一个环节出错,都会让后面的训练白跑。先把“模型能加载、端口能访问、数据能识别”这三件事确认好,再进入正式训练,效率会高很多。