排序
Transformer 编码器与解码器:一篇看懂核心结构
一、先看 Transformer 的整体结构 架构图: 示例:输入:'The cat sat on the mat'--->输出:'猫坐在垫子上' **输入阶段:** * 1)词嵌入(Word Embedding) * 将每个单词转换为512维向量,例如: *...
Kubernetes管理GPU和大模型技术体系
一、K8s管理GPU资源技术架构 k8s默认不支持管理GPU 安装完英伟达驱动后支持管理GPU 二、K8s管理大模型服务方案 针对vLLM serve、Ollama serve等各类大模型服务,可以使用资源类型为Deployment进...
Unsloth 微调 Qwen3-4B 实战:环境、模型加载与 LoRA 配置
- 一、先看硬件和软件要求 - 1.1 硬件要求 * GPU:至少 10GB 显存,例如 T4、V100 或更高。 * 内存:至少 16G。 * 存储:建议 50G 以上。 - 1.2 软件环境 * Linux(推荐 Ubuntu) * Python 3.8 ...
大模型知识蒸馏入门:原理、方法与百度千帆实战
一、什么是知识蒸馏 知识蒸馏(Knowledge Distillation)是一种模型压缩技术,核心思想是: * 用一个更大的教师模型指导一个更小的学生模型; * 让学生模型在更低资源占用下,尽量接近教师模型...
LLaMA-Factory 微调 Qwen3-4B 实战:启动训练、测试与导出
一、启动 WebUI 在开始训练前,先把前面的测试命令结束掉,然后启动 WebUI: 浏览器访问: `http://ip:7860` 如果使用的是 AutoDL,仍然需要做自定义服务映射。 需要注意的是:WebUI 版本更适合...
大模型行业选型建议:法律、能源、农业与文旅
一、法律行业 | 细分领域 | 核心要求 | 推荐模型 | 关键能力 | | -------- | ---------------------- | --------------------- | ---------------------------- | | 合同审查 | 条款风险识别、...
腾讯云 HAI 体验:从创建实例到 OpenWebUI 测试
一、先创建 HAI 实例 地址: `https://cloud.tencent.com/product/hai` 1.1 进入 HAI 控制台 打开官网后,点击“立即使用”。 1.2 新建算力实例 进入: `算力管理 -> 新建` 1.3 填写实例参数...
大模型微调超参数详解:从 Model Size 到 Temperature
一、超参数到底是什么 超参数(Hyperparameters)是在训练开始前就要设定好的参数,用来控制训练过程,而不是训练中自动学到的权重。 一个很直观的比喻是:超参数就像做菜前先决定盐、胡椒、火...
如何获取并制作大模型微调数据集
一、从 Hugging Face 获取公共数据集 地址: `https://huggingface.co/datasets` 1.1 安装命令行工具 默认前提是机器已经装好 Python 和 pip。 1.2 获取 Token 注册、登录并验证邮箱后,可以在...
vLLM 集群模式部署:Ray、多机多卡与远程访问
一、先准备机器 示例建议: * 优先使用阿里云。 * GPU 选 A10 或更高等级。 * 不建议选 T4,这类卡在大模型集群场景下通常偏弱。 二、部署前准备 2.1 安装驱动和 CUDA 所有机器都要完成这一步。...











