Skip to content

AI 基础设施技术栈

大模型部署与应用开发的核心工具链


📚 技术文档

以下是 AI 基础设施领域的核心技术文档,涵盖从环境准备到模型部署的完整工具链:

🔹 AI 应用开发环境准备

  • 简介:从零开始搭建 AI 开发环境(Conda、JupyterLab、PyCharm)
  • 适用场景:AI 开发入门、环境配置、工具链搭建
  • 难度:⭐ 入门级
  • 内容:Conda 环境管理、JupyterLab 配置、代码补全、PyCharm 集成

📖 [AI 应用开发环境准备](/AI_Infrastructure/00-AI 应用开发环境准备)


🔹 Ollama - 本地模型运行

  • 简介:本地运行大模型的最佳选择,开箱即用
  • 适用场景:个人学习、离线环境、快速原型
  • 难度:⭐ 入门级

📖 [Ollama 完全指南](/AI_Infrastructure/01-Ollama 完全指南)


🔹 vLLM - 高性能推理引擎

  • 简介:UC Berkeley 出品,PagedAttention 技术,吞吐量提升 24 倍
  • 适用场景:高并发服务、生产环境部署
  • 难度:⭐⭐⭐ 进阶级

📖 [vLLM 完全指南](/AI_Infrastructure/02-vLLM 完全指南)


🔹 LlamaIndex - RAG 数据索引框架

  • 简介:领先的 RAG 框架,连接私有数据与大模型
  • 适用场景:企业知识库、智能客服、文档问答
  • 难度:⭐⭐ 中级

📖 [LlamaIndex 完全指南](/AI_Infrastructure/03-LlamaIndex 完全指南)


🔹 LMDeploy - 高效模型部署

  • 简介:商汤科技出品,推理速度超越 vLLM 1.8 倍
  • 适用场景:高性能推理、资源受限环境、国产化部署
  • 难度:⭐⭐⭐ 进阶级

📖 [LMDeploy 完全指南](/AI_Infrastructure/04-LMDeploy 完全指南)


🔹 LLaMA Factory - 一站式微调框架

  • 简介:支持 100+ 模型的高效微调工具
  • 适用场景:模型定制、领域适配、指令微调
  • 难度:⭐⭐⭐ 进阶级

📖 [LLaMA Factory 完全指南](/AI_Infrastructure/05-LLaMA-Factory 完全指南)(编写中)


🗺️ 学习路线

入门 → Ollama (本地体验)

中级 → LlamaIndex (RAG 应用)

高级 → vLLM / LMDeploy (高性能部署)

专家 → LLaMA Factory (模型微调)

📊 技术对比

技术主要用途难度性能适用场景
Ollama本地运行中等个人学习、原型开发
vLLM推理服务⭐⭐⭐极高高并发生产环境
LlamaIndexRAG 框架⭐⭐中等知识库问答
LMDeploy推理部署⭐⭐⭐极高高性能/国产化
LLaMA Factory模型微调⭐⭐⭐N/A模型定制

🚀 快速开始

选择你的起点

我是新手,想体验大模型: → 从 [Ollama](/AI_Infrastructure/01-Ollama 完全指南) 开始

我要构建知识库问答: → 学习 [LlamaIndex](/AI_Infrastructure/03-LlamaIndex 完全指南)

我需要部署生产服务: → 选择 [vLLM](/AI_Infrastructure/02-vLLM 完全指南) 或 [LMDeploy](/AI_Infrastructure/04-LMDeploy 完全指南)

我想微调自己的模型: → 使用 [LLaMA Factory](/AI_Infrastructure/05-LLaMA-Factory 完全指南)


📖 相关资源


最后更新:2026-03-13