排序
讯飞星辰零代码微调 Qwen3-4B 实战
一、先做微调前测试 目标模型:`Qwen3-4B` 模型集市地址: `https://training.xfyun.cn/modelSquare` 进入后选择 `Qwen3-4B`,点击“体验”。 可以先准备几条测试问题,例如: * “阿铭linux是...
常见开源大模型微调工具盘点:PEFT、LLaMA-Factory、Unsloth、XTuner
一、Hugging Face Transformers 与 PEFT Transformers 是 Hugging Face 的核心开源库,覆盖 NLP、视觉、音频等多种任务,同时把模型加载、Tokenizer、Pipeline 等常见能力做了模块化封装。 PEFT...
如何获取并制作大模型微调数据集
一、从 Hugging Face 获取公共数据集 地址: `https://huggingface.co/datasets` 1.1 安装命令行工具 默认前提是机器已经装好 Python 和 pip。 1.2 获取 Token 注册、登录并验证邮箱后,可以在...
大模型微调超参数详解:从 Model Size 到 Temperature
一、超参数到底是什么 超参数(Hyperparameters)是在训练开始前就要设定好的参数,用来控制训练过程,而不是训练中自动学到的权重。 一个很直观的比喻是:超参数就像做菜前先决定盐、胡椒、火...
大模型微调数据集入门:常见分类与数据格式
一、什么是大模型微调数据集 简单说,微调数据集就是一批专门为某个目标准备的数据,用来让一个已经很强的通用模型,进一步学会特定任务、特定风格或特定领域知识。 二、常见数据集分类 2.1 指...
大模型微调怎么选:技术选型与 SFT、DPO、PPO、RLHF
- 一、技术选型时先看什么 - 1.1 按任务复杂度选 * 高复杂度任务: * 例如多轮对话、复杂推理、长文本生成。 * 更适合全参数微调或指令微调。 * 低复杂度任务: * 例如简单分类、关键词提取。 *...
大模型微调入门:为什么需要微调与常见技术路线
一、为什么需要微调 微调的核心价值,通常体现在下面几个方面: * 解决预训练模型“通用但不够专”的问题。 * 处理目标场景与预训练数据之间的数据分布差异。 * 在有限计算资源下,用更高效的方...
商业大模型微调平台盘点:阿里云 PAI、硅基流动与讯飞星辰
一、阿里云 PAI 地址: `https://pai.console.aliyun.com/` 阿里云 PAI 提供了一站式的大模型训练与部署能力,比较适合已经在云上做 AI 研发,或者希望快速接入微调工作流的团队。 1.1 典型入口...
Unsloth 微调 Qwen3-4B 实战:训练、推理与 vLLM 部署
一、先配置训练器 示例里使用的是 `SFTTrainer`: - 二、几个关键超参数怎么理解 * `gradient_accumulation_steps`: * 用梯度累积模拟更大的 batch。 * `warmup_steps`: * 训练初期逐步升高学...
Unsloth 微调 Qwen3-4B 实战:环境、模型加载与 LoRA 配置
- 一、先看硬件和软件要求 - 1.1 硬件要求 * GPU:至少 10GB 显存,例如 T4、V100 或更高。 * 内存:至少 16G。 * 存储:建议 50G 以上。 - 1.2 软件环境 * Linux(推荐 Ubuntu) * Python 3.8 ...











