排序
OpenClaw多Agent进阶:SOUL.md、USER.md 与 AGENTS.md 协作机制
一、给不同 Agent 设置角色人设 1.1 技术 Agent 的 SOUL.md 定义SOUL.md 定义USER.md 1.2 内容 Agent 的 SOUL.md 定义SOUL.md 定义USER.md 1.3 运营 Agent 的 SOUL.md USER.md 1.4 财务 Agent ...
用 EvalScope 压测 Qwen3-8B:从环境准备到指标解读
一、压测对象 这份实战使用的是硅基流动提供的免费 `Qwen3-8B` 服务。 模型入口示意: 获取 API Key 的流程同样在平台控制台中完成。 公开文档里只建议写成: * `SILICONFLOW_API_KEY=` 二、准...
FastGPT 入门与安装:功能定位、应用场景和 Docker 部署
一、FastGPT 是什么 FastGPT 是一个基于大语言模型的开源知识库问答系统,目标是帮助用户快速构建专属 AI 助手,尤其适合企业内部文档问答和复杂知识检索场景。 二、FastGPT 的核心能力 2.1 知...
Kubernetes管理GPU和大模型技术体系
一、K8s管理GPU资源技术架构 k8s默认不支持管理GPU 安装完英伟达驱动后支持管理GPU 二、K8s管理大模型服务方案 针对vLLM serve、Ollama serve等各类大模型服务,可以使用资源类型为Deployment进...
LLaMA-Factory 微调 Qwen3-4B 实战:环境准备与数据配置
一、先明确整体思路 这套流程的目标是:在 AutoDL 云服务器上安装 `LLaMA-Factory`,然后对 `Qwen3-4B` 做微调。 二、环境准备 2.1 购买云主机 笔记里建议使用 AutoDL,选择 3090 显卡即可。如...
Ollama 私有化部署实战:云主机、模型运行与 OpenWebUI
一、先准备云主机 1.1 AutoDL AutoDL 官网: `https://autodl.com/home` 它的优势通常是便宜、按量付费、适合做实验,但因为是容器化虚拟机,性能体验可能略差一些。 1.2 阿里云 / 腾讯云 GPU ...
Dify+Jenkins MCP:构建CI-CD运维智能体
一、部署Jenkins MCP 就在Jenkins那台机器上部署,系统版本:Rocky9 项目地址:https://github.com/lanbaoshen/mcpjenkins 基于docker部署,需要先安装docker环境 先pull容器镜像 然后启动容器 ...
大模型微调数据集入门:常见分类与数据格式
一、什么是大模型微调数据集 简单说,微调数据集就是一批专门为某个目标准备的数据,用来让一个已经很强的通用模型,进一步学会特定任务、特定风格或特定领域知识。 二、常见数据集分类 2.1 指...
vLLM 私有化部署实战:模型下载、服务启动与接口测试
一、先准备云主机 示例里使用的是 AutoDL。 官网: `https://www.autodl.com/` 二、安装 vLLM 参考文档: `https://docs.vllm.ai/en/latest/getting_started/installation/gpu.html` 如果系统里...
大模型微调超参数详解:从 Model Size 到 Temperature
一、超参数到底是什么 超参数(Hyperparameters)是在训练开始前就要设定好的参数,用来控制训练过程,而不是训练中自动学到的权重。 一个很直观的比喻是:超参数就像做菜前先决定盐、胡椒、火...










