模型压缩共2篇
大模型知识蒸馏入门:原理、方法与百度千帆实战-AI运维探索者

大模型知识蒸馏入门:原理、方法与百度千帆实战

一、什么是知识蒸馏 知识蒸馏(Knowledge Distillation)是一种模型压缩技术,核心思想是: * 用一个更大的教师模型指导一个更小的学生模型; * 让学生模型在更低资源占用下,尽量接近教师模型...
头像7个月前
02214
用 DistillKit 做大模型蒸馏:Qwen3-8B 到 Qwen3-0.6B-AI运维探索者

用 DistillKit 做大模型蒸馏:Qwen3-8B 到 Qwen3-0.6B

一、DistillKit 是什么 DistillKit 是 Arcee.AI 开源的大模型蒸馏工具包,目标是让研究和工程团队更容易实践多种蒸馏方法。 它支持的主要方向包括: * 基于 logits 的蒸馏; * 基于隐藏状态的蒸...
头像6个月前
0245