工程实践 第3页
大模型是什么,它为什么重要-AI运维探索者

大模型是什么,它为什么重要

一、先认识什么是大模型 1.1 常见的大模型 常见的大模型: * ChatGPT * DeepSeek * 豆包 * 腾讯元宝 1.2 大模型的定义 大模型定义: * 大语言模型(LLM) * 关键字:大 --> 参数规模比较大、训...
头像7个月前
0428
Go 包管理实战:Go Mod、自定义包与常用第三方包-AI运维探索者

Go 包管理实战:Go Mod、自定义包与常用第三方包

一、前言 本文主要以下几方面介绍Go语言中包管理: * 什么是包 * 为什么要使用包 * 内置包和第三方包 * 如何使用包 * 如何管理包 * 如何自定义包 * 常用的包 二、什么是包 Go语言的包(package)是...
头像3年前
0417
Ollama 私有化部署实战:云主机、模型运行与 OpenWebUI-AI运维探索者

Ollama 私有化部署实战:云主机、模型运行与 OpenWebUI

一、先准备云主机 1.1 AutoDL AutoDL 官网: `https://autodl.com/home` 它的优势通常是便宜、按量付费、适合做实验,但因为是容器化虚拟机,性能体验可能略差一些。 1.2 阿里云 / 腾讯云 GPU ...
头像7个月前
0409
Kubernetes管理GPU和大模型技术体系-AI运维探索者

Kubernetes管理GPU和大模型技术体系

一、K8s管理GPU资源技术架构 k8s默认不支持管理GPU 安装完英伟达驱动后支持管理GPU 二、K8s管理大模型服务方案 针对vLLM serve、Ollama serve等各类大模型服务,可以使用资源类型为Deployment进...
头像8个月前
04015
LLaMA-Factory 微调 Qwen3-4B 实战:环境准备与数据配置-AI运维探索者

LLaMA-Factory 微调 Qwen3-4B 实战:环境准备与数据配置

一、先明确整体思路 这套流程的目标是:在 AutoDL 云服务器上安装 `LLaMA-Factory`,然后对 `Qwen3-4B` 做微调。 二、环境准备 2.1 购买云主机 笔记里建议使用 AutoDL,选择 3090 显卡即可。如...
头像7个月前
04012
大模型微调数据集入门:常见分类与数据格式-AI运维探索者

大模型微调数据集入门:常见分类与数据格式

一、什么是大模型微调数据集 简单说,微调数据集就是一批专门为某个目标准备的数据,用来让一个已经很强的通用模型,进一步学会特定任务、特定风格或特定领域知识。 二、常见数据集分类 2.1 指...
头像7个月前
0386
vLLM 私有化部署实战:模型下载、服务启动与接口测试-AI运维探索者

vLLM 私有化部署实战:模型下载、服务启动与接口测试

一、先准备云主机 示例里使用的是 AutoDL。 官网: `https://www.autodl.com/` 二、安装 vLLM 参考文档: `https://docs.vllm.ai/en/latest/getting_started/installation/gpu.html` 如果系统里...
头像7个月前
03812
大模型微调超参数详解:从 Model Size 到 Temperature-AI运维探索者

大模型微调超参数详解:从 Model Size 到 Temperature

一、超参数到底是什么 超参数(Hyperparameters)是在训练开始前就要设定好的参数,用来控制训练过程,而不是训练中自动学到的权重。 一个很直观的比喻是:超参数就像做菜前先决定盐、胡椒、火...
头像7个月前
03813
大模型参数入门:从规模到主流模型量级-AI运维探索者

大模型参数入门:从规模到主流模型量级

一、什么是大模型参数 * 参数单位:B,billion(十亿) * 参数是什么? 大模型参数是通过海量数据训练得到的内部数值,用于存储知识关联并决定模型处理信息的方式。 * 举例1:参数就好比图书馆书架上的...
头像7个月前
0356
如何获取并制作大模型微调数据集-AI运维探索者

如何获取并制作大模型微调数据集

一、从 Hugging Face 获取公共数据集 地址: `https://huggingface.co/datasets` 1.1 安装命令行工具 默认前提是机器已经装好 Python 和 pip。 1.2 获取 Token 注册、登录并验证邮箱后,可以在...
头像7个月前
03513