当前位置: 首页 > article >正文

AI Infra 架构全景介绍

AI Infra 架构全景一、什么是 AI InfraAI InfraAI 基础设施是支撑大模型从开发到落地全过程的软件栈。它解决的核心问题是如何让模型在有限的硬件资源上跑得更快、更大、更稳。从抽象的视角看整个 AI Infra 可以划分为三个层次┌─────────────────────────────────────────────────────────┐ │ 应用层 (Applications) │ │ Chatbot / Agent / RAG / 业务系统 │ ├─────────────────────────────────────────────────────────┤ │ 模型服务层 (Serving) │ │ vLLM / TensorRT-LLM / TGI / llama.cpp │ ├─────────────────────────────────────────────────────────┤ │ 模型适配层 (Adaptation) │ │ SWIFT / PEFT / LLaMA-Factory / Axolotl │ ├─────────────────────────────────────────────────────────┤ │ 训练加速层 (Training) │ │ DeepSpeed / FSDP / Megatron-LM │ ├─────────────────────────────────────────────────────────┤ │ 基础框架层 (Framework) │ │ PyTorch / JAX / TensorFlow │ ├─────────────────────────────────────────────────────────┤ │ 硬件层 (Hardware) │ │ NVIDIA GPU / AMD / 华为昇腾 / 谷歌TPU │ └─────────────────────────────────────────────────────────┘下面从下往上逐一拆解每一层。二、硬件层硬件是 AI 的算力基础当前市场格局厂商代表产品特点适用场景NVIDIAA100/H100/B200生态最成熟软件支持最好训练、推理通用AMDMI250/MI300性价比优势生态追赶中推理、部分训练华为昇腾910/310国内自主配套CANN软件栈国产化要求场景谷歌TPU v4/v5云端自用不对外销售Google内部/Cloud关键概念显存带宽决定数据传输速度直接影响推理延迟显存容量决定能跑多大的模型如H100 80GB ≈ 可单卡跑70B 4bit量化模型多卡互联NVLink/InfiniBand决定多卡通信效率三、基础框架层这是最底层的编程接口负责将硬件能力抽象为张量计算。PyTorch当前主流核心概念Tensor多维数组在GPU上的数据结构Autograd自动微分自动构建计算图并反向传播nn.Module所有神经网络层的基类# 最底层的操作importtorch xtorch.tensor([1.0],devicecuda)# 数据放到GPUwtorch.nn.Linear(784,256,devicecuda)# 参数在GPUyw(x)# 前向计算y.backward()# 反向传播自动算梯度JAXGoogle生态特点函数式编程、即时编译、适合研究场景。与PyTorch的关系类似于Python vs C——JAX更底层但更灵活PyTorch更易用但更厚。这一层解决的核心问题硬件抽象写一份代码跑在CPU/GPU/TPU上自动求导不用手写反向传播公式算子库CUDA核函数已封装好直接调用四、训练加速层当模型单卡放不下或单卡训练太慢时需要分布式训练框架。DeepSpeed微软核心组件组件解决的问题实现方式ZeRO显存不够分将优化器状态、梯度、参数分片到多卡流水线并行模型层数太多不同层放不同GPU张量并行单层参数太大单层的参数切分到多卡梯度检查点显存不够用计算换显存不存中间激活值CPU Offload显存还不够把部分数据放CPU内存Megatron-LMNVIDIA专注于张量并行将Transformer的Attention和MLP层切分到多卡通过精细的通信优化达到高效率。常与DeepSpeed配合使用Megatron负责模型切分DeepSpeed负责显存优化。FSDPPyTorch原生PyTorch 1.11后内置的ZeRO实现功能类似DeepSpeed但更PyTorch原生。选择哪个取决于生态DeepSpeed功能更全FSDP与PyTorch集成更紧。这一层解决的核心问题显存不够模型太大单卡装不下训练太慢单卡算不过来需要多卡并行多卡效率通信开销要尽可能小五、模型适配层微调框架微调框架解决的是如何用有限的资源让大模型适应新任务。SWIFTModelScope生态核心模块┌─────────────────────────────────────────┐ │ SWIFT 组件 │ ├─────────────────────────────────────────┤ │ Model Hub从ModelScope下载模型 │ ├─────────────────────────────────────────┤ │ Adapter注入LoRA/QLoRA适配器 │ │ - 原模型冻结 │ │ - 只训练小矩阵通常1%参数 │ ├─────────────────────────────────────────┤ │ Template数据格式化成模型对话格式 │ │ - 自动处理system/user/assistant标记 │ ├─────────────────────────────────────────┤ │ Trainer封装训练循环 │ │ - 混合精度、梯度累积、日志记录 │ ├─────────────────────────────────────────┤ │ Export合并LoRA权重导出完整模型 │ └─────────────────────────────────────────┘PEFTHuggingFace生态HuggingFace的官方微调库提供LoRA、Prefix Tuning、Adapter等参数高效微调方法。与Transformers库深度集成。LoRA 的机制假设原始层是W4096×4096LoRA做的事情原始输出 x W # 计算量大不训练 LoRA输出 x W (x A) B ↑ ↑ 低秩矩阵A 低秩矩阵B (4096×64) (64×4096) ← 只训练这两个 →训练参数从 16M 降到 0.5M推理时可合并回W W AB无额外推理开销这一层解决的核心问题算力有限消费级显卡也能微调时间有限几小时完成微调而非几天多任务一套模型可以挂多个LoRA适配器按需切换六、模型服务层推理框架推理框架解决的是模型训练好后如何高效响应大量用户请求。vLLM核心创新点1. PagedAttention传统推理每个请求预先分配固定大小的KV Cache存在内存浪费。vLLM将KV Cache按块管理类似操作系统虚拟内存按需分配。传统方式固定分配 请求A[████████░░░░] 40%浪费 请求B[██████░░░░░░] 50%浪费 PagedAttention分页管理 请求A[█][█][█][█][ ] 按需分配 请求B[█][█][█][ ][ ] └── 空闲块可复用给其他请求2. 连续批处理传统批处理等凑齐一批才执行空闲时间多。vLLM请求来了随时加入执行中的批次类似CPU的抢占式调度。TensorRT-LLMNVIDIANVIDIA官方推理框架特点算子融合将多个小算子合并成一个减少kernel启动开销量化支持INT4/INT8量化显存减半仅NVIDIA GPU可用但性能最优llama.cpp特点纯C实现无PyTorch依赖支持CPU推理GGUF量化格式CPU友好适合边缘设备、本地部署TGIHuggingFacevLLM的竞品功能类似但生态更偏HuggingFace。选择时主要看vLLM性能更好TGI功能更全如embedding、微调服务等。这一层解决的核心问题延迟首token时间要快毫秒级吞吐同时服务尽可能多的用户显存KV Cache占主要要高效管理七、框架选型指南场景推荐框架理由从头预训练大模型DeepSpeed Megatron需要极致并行能力单卡/双卡微调SWIFT / PEFTLoRA省显存上手快在线高并发推理vLLM / TensorRT-LLMPagedAttention 连续批处理本地CPU推理llama.cpp无需GPUGGUF量化国内合规部署昇腾CANN SWIFT国产化适配ModelScope生态多模态模型HuggingFace Transformers模型最全生态最广八、各层的关系从代码到硬件一条训练命令经过的完整路径swift train--modelQwen-7B--datasetalpaca执行链路1. swift 命令行 → 解析参数调用 Swift 库函数 ↓ 2. Swift.prepare_model() → 注入 LoRA 适配器 ↓ 3. Trainer.train() → 启动训练循环 ↓ 4. DeepSpeed.initialize() → 初始化分布式环境ZeRO 分片 ↓ 5. PyTorch Distributed → 调用 NCCL 进行多卡通信 ↓ 6. CUDA Kernel → 在 GPU 上执行矩阵运算 ↓ 7. GPU 硬件 → 实际完成计算每一层都在解决上一层的复杂性让用户用更少的代码完成更多的事。九、总结AI Infra 本质上是一个层层抽象的软件栈层抽象解决的问题硬件GPU显存/算力物理资源基础框架Tensor Autograd用代码描述神经网络训练加速分布式并行模型太大/训练太慢模型适配参数高效微调算力不够也能调模型模型服务批处理 内存管理在线服务要快、要稳学习路径建议先跑通一个推理服务vLLM理解模型部署是什么再做一次LoRA微调SWIFT理解参数高效的含义最后读DeepSpeed文档理解分布式训练的难点遇到具体问题时再深入对应框架的源码不需要一次性掌握所有框架先理解每一层解决什么问题使用时再深入。

相关文章:

AI Infra 架构全景介绍

AI Infra 架构全景 一、什么是 AI Infra AI Infra(AI 基础设施)是支撑大模型从开发到落地全过程的软件栈。它解决的核心问题是:如何让模型在有限的硬件资源上跑得更快、更大、更稳。 从抽象的视角看,整个 AI Infra 可以划分为三个…...

AI黑科技展示:CYBER-VISION零号协议实时视频分割效果

AI黑科技展示:CYBER-VISION零号协议实时视频分割效果 1. 未来已来:当AI视觉遇见赛博朋克 想象一下这样的场景:一位视障人士戴上智能眼镜,眼前的世界突然变得清晰可辨——人行道上的盲道被高亮标注,前方的障碍物用醒目…...

Phi-4-mini-reasoning开源镜像实操:无需conda/pip,开箱即用推理环境

Phi-4-mini-reasoning开源镜像实操:无需conda/pip,开箱即用推理环境 1. 模型简介 Phi-4-mini-reasoning 是一个基于合成数据构建的轻量级开源模型,专注于高质量、密集推理的数据处理能力。作为Phi-4模型家族的一员,它经过专门微…...

番茄小说下载器:如何轻松搭建你的个人离线图书馆?

番茄小说下载器:如何轻松搭建你的个人离线图书馆? 【免费下载链接】Tomato-Novel-Downloader 番茄小说下载器不精简版 项目地址: https://gitcode.com/gh_mirrors/to/Tomato-Novel-Downloader 还在为网络不稳定无法畅读小说而烦恼吗?番…...

PyTorch 2.8镜像实际案例:电商场景中AI生成商品短视频的端到端实现

PyTorch 2.8镜像实际案例:电商场景中AI生成商品短视频的端到端实现 1. 电商短视频生成的技术挑战 在电商运营中,商品短视频已经成为提升转化率的关键因素。传统视频制作面临三个主要痛点: 人力成本高:专业视频制作团队单条视频…...

Windows Cleaner完全指南:如何快速解决C盘爆红和系统卡顿问题

Windows Cleaner完全指南:如何快速解决C盘爆红和系统卡顿问题 【免费下载链接】WindowsCleaner Windows Cleaner——专治C盘爆红及各种不服! 项目地址: https://gitcode.com/gh_mirrors/wi/WindowsCleaner Windows Cleaner是一款专为Windows系统设…...

4个维度掌控企业驱动管理:DriverStore Explorer从诊断到优化的全流程方案

4个维度掌控企业驱动管理:DriverStore Explorer从诊断到优化的全流程方案 【免费下载链接】DriverStoreExplorer Driver Store Explorer 项目地址: https://gitcode.com/gh_mirrors/dr/DriverStoreExplorer 一、问题诊断:企业环境中的驱动管理痛点…...

告别手动刷课!智慧树网课助手让你的学习效率提升50%

告别手动刷课!智慧树网课助手让你的学习效率提升50% 【免费下载链接】zhihuishu 智慧树刷课插件,自动播放下一集、1.5倍速度、无声 项目地址: https://gitcode.com/gh_mirrors/zh/zhihuishu 你是否厌倦了在智慧树平台上频繁点击"下一集"…...

如何快速打造高效办公界面:Office功能区的终极定制指南

如何快速打造高效办公界面:Office功能区的终极定制指南 【免费下载链接】office-custom-ui-editor 项目地址: https://gitcode.com/gh_mirrors/of/office-custom-ui-editor Office Custom UI Editor 是一款由微软官方开源的强大工具,让您无需编写…...

XGantt:Vue3项目管理的终极可视化解决方案

XGantt:Vue3项目管理的终极可视化解决方案 【免费下载链接】gantt A powerful and flexible Gantt chart component library for developers, written in native JS Canvas. Supports TypeScript. 中文文档 项目地址: https://gitcode.com/gh_mirrors/gantt/gant…...

亚马逊AMC数据驱动时代,选对ERP才能玩转精准投放

随着亚马逊广告生态的持续升级,AMC(Amazon Marketing Cloud)作为高阶数据分析工具,正成为头部卖家精细化运营的“标配”。AMC能够整合品牌在亚马逊站内外多渠道的广告与消费者行为数据,但其核心价值在于数据的打通与应…...

千问3.5-2B多场景落地:教育答题辅助、医疗报告图解、工业设备图识别实战分享

千问3.5-2B多场景落地:教育答题辅助、医疗报告图解、工业设备图识别实战分享 1. 引言:视觉语言模型的新应用 在数字化浪潮中,视觉语言模型正悄然改变着多个行业的运作方式。千问3.5-2B作为Qwen系列的小型视觉语言模型,凭借其图片…...

Wan2.2-I2V-A14B私有部署实战教程:RTX 4090D一键生成1080P视频

Wan2.2-I2V-A14B私有部署实战教程:RTX 4090D一键生成1080P视频 1. 开篇:为什么选择私有部署 当你需要频繁生成高质量视频内容时,公有云服务往往面临三个痛点:生成排队时间长、隐私数据风险、调用成本高。Wan2.2-I2V-A14B私有部署…...

TFT Overlay:云顶之弈玩家的终极装备合成与羁绊指南

TFT Overlay:云顶之弈玩家的终极装备合成与羁绊指南 【免费下载链接】TFT-Overlay Overlay for Teamfight Tactics 项目地址: https://gitcode.com/gh_mirrors/tf/TFT-Overlay 在云顶之弈的激烈对局中,你是否经常为记不住复杂的装备合成公式而烦恼…...

OpenClaw+Qwen3.5-9B:科研党的文献综述加速器

OpenClawQwen3.5-9B:科研党的文献综述加速器 1. 为什么需要AI辅助文献处理 去年冬天,我在准备一篇关于量子计算在金融领域应用的综述论文时,遇到了所有科研人共同的噩梦:堆积如山的PDF文献。下载了87篇相关论文后,光…...

找不到msvcr120.dll解决方法:2026年有效的一键修复与手动安装步骤

正玩着游戏或做着设计图,屏幕突然弹出“找不到msvcr120.dll”的提示,相信很多Windows用户都遇到过这种令人抓狂的时刻。这个错误意味着你的电脑缺少了某个软件或游戏运行所必需的“零件”。别担心,这个零件就是Microsoft Visual C 2013运行库…...

不用手动设置滤波参数,程序自动根据信号特征,匹配滤波参数,零基础也能抗干扰。

在智能仪器的世界里,我们经常面临一个尴尬的局面:实验室里算法跑得飞起,一到现场就被噪声淹没。今天,我将结合《智能仪器设计》中的自适应信号处理理念,带你手撸一个“傻瓜式”自适应滤波器。这个工具的目标很明确&…...

RK3588开发板USB转CAN踩坑实录:CH341成功驱动与PCAN内核编译全流程

RK3588开发板USB转CAN实战指南:CH341与PCAN驱动深度解析 当工业控制、车载电子或机器人系统需要扩展CAN总线接口时,RK3588开发板配合USB转CAN模块成为工程师的热门选择。本文将深入探讨两种经过验证的解决方案——CH341转CAN和PCAN模块,从硬件…...

智能制造企业数字化转型智慧工厂建设方案:涵盖研发、供应、生产、销售、服务五大核心环节的智慧工厂建设路径

该方案围绕研发、供应、生产、销售、服务全价值链,融合AI、大数据、5G等技术,通过智能优化、智慧供应链、智能质检、数字孪生及精准营销等模块,构建全链路智慧工厂,实现降本增效与制造企业全面数字化转型。 该方案以“研发—供应…...

突破网盘限速:2025年开源直链解析工具实用指南

突破网盘限速:2025年开源直链解析工具实用指南 【免费下载链接】Online-disk-direct-link-download-assistant 一个基于 JavaScript 的网盘文件下载地址获取工具。基于【网盘直链下载助手】修改 ,支持 百度网盘 / 阿里云盘 / 中国移动云盘 / 天翼云盘 / …...

从BGA封装到Xtacking架构:图解NAND堆叠技术如何影响SSD性能

从BGA封装到Xtacking架构:NAND堆叠技术如何重塑SSD性能格局 当一块企业级SSD的读写速度突破7GB/s时,工程师们发现传统的NAND封装技术正在成为性能提升的瓶颈。在PCIe 5.0时代,信号传输速率需要达到2400MT/s才能充分发挥带宽潜力,而…...

实测Claude 4.5 Opus重构“屎山”代码:手把手教你用AI给遗留项目做外科手术(附前后对比与单元测试生成)

实测Claude 4.5 Opus重构“屎山”代码:手把手教你用AI给遗留项目做外科手术(附前后对比与单元测试生成) 接手一个满是"祖传代码"的老旧项目,就像被丢进一座迷宫——变量命名像密码,函数逻辑像意大利面&…...

如何在5分钟内免费激活Windows和Office?KMS_VL_ALL_AIO智能脚本终极指南

如何在5分钟内免费激活Windows和Office?KMS_VL_ALL_AIO智能脚本终极指南 【免费下载链接】KMS_VL_ALL_AIO Smart Activation Script 项目地址: https://gitcode.com/gh_mirrors/km/KMS_VL_ALL_AIO 还在为Windows系统激活和Office办公软件激活而烦恼吗&#x…...

URP Scriptable Renderer Feature实战:从原理到自定义后处理

1. URP Scriptable Renderer Feature基础认知 第一次接触URP的Scriptable Renderer Feature时,我完全被各种专业术语搞晕了。后来在实际项目中反复折腾才发现,这东西本质上就是个"特效插件系统"。想象你正在玩一款射击游戏,当角色受…...

别再买错卡了!手把手教你用Arduino Uno和MFRC522模块DIY智能门禁(附完整代码和避坑指南)

从零搭建Arduino RFID门禁:硬件选购、代码优化与避坑全指南 第一次接触Arduino和RFID技术时,我被琳琅满目的硬件选择和复杂的代码搞得晕头转向。特别是当兴冲冲买回一堆组件后,发现卡片根本无法被识别——原来是因为忽略了频率匹配这个关键细…...

保姆级教程:用Docker快速部署FreeSWITCH的ASR服务(含FunASR、sherpa-ncnn)

基于Docker的FreeSWITCH语音识别服务实战指南 语音识别(ASR)技术正在重塑通信系统的交互方式。对于FreeSWITCH开发者而言,将高效ASR服务集成到电话系统中,可以解锁语音指令控制、实时字幕生成、智能客服等创新应用场景。Docker技术…...

Steane编码实战指南:用Python模拟[7,1,3]量子纠错电路(附完整代码)

Steane编码实战指南:用Python模拟[7,1,3]量子纠错电路(附完整代码) 量子计算正从实验室走向现实应用,但量子比特的脆弱性始终是横亘在实用化道路上的关键障碍。想象一下,当你精心设计的量子算法因为一个随机的相位翻转…...

企业微信自动化新解:PC端HOOK与iPad协议双轨实践

1. 企业微信自动化的业务痛点与双轨方案 最近两年服务企业客户时,最常被问到的就是:"每天要手动处理上千条客户消息,有没有更高效的解决方案?" 这让我意识到企业微信自动化已成为刚需。传统人工操作在批量消息发送、大规…...

炉石传说自动化工具:从效率提升到智能策略的全栈解决方案

炉石传说自动化工具:从效率提升到智能策略的全栈解决方案 【免费下载链接】Hearthstone-Script Hearthstone script(炉石传说脚本) 项目地址: https://gitcode.com/gh_mirrors/he/Hearthstone-Script 在快节奏的现代生活中&#xff0c…...

5大突破让暗黑2单机体验翻倍:PlugY插件全方位应用指南

5大突破让暗黑2单机体验翻倍:PlugY插件全方位应用指南 【免费下载链接】PlugY PlugY, The Survival Kit - Plug-in for Diablo II Lord of Destruction 项目地址: https://gitcode.com/gh_mirrors/pl/PlugY 当你第10次因储物箱满被迫丢弃装备时,当…...