当前位置: 首页 > article >正文

(二十二)32天GPU测试从入门到精通-DeepSeek 模型测试day20

目录引言DeepSeek 模型介绍架构特点推理性能测试中文场景优化与其他模型对比实战部署选型建议引言DeepSeek 是中国深度求索公司开发的大语言模型系列以出色的中文能力和高性价比著称是国产大模型的代表之一。从 2023 年的第一代 DeepSeek LLM到 2024 年的 DeepSeek-V2/V2.5再到 2024 年底的 DeepSeek-V3 和 2025 年初的 DeepSeek-R1DeepSeek 系列快速发展在中文场景下表现优异。DeepSeek 的核心创新在于 MoEMixture of Experts架构和 MLAMulti-head Latent Attention技术。MoE 架构使得模型总参数量大但激活参数少推理成本与较小的密集模型相当但性能接近大模型。MLA 技术显著降低了长上下文的显存占用使得 256K 上下文可以在单卡上运行。掌握 DeepSeek 模型测试对中文场景应用至关重要。如果你的应用主要面向中文用户DeepSeek 是一个值得考虑的选择。它在中文理解、中文生成、中文知识等方面都优于 LLaMA与 Qwen 相当。DeepSeek 有什么独特优势中文优化、高性价比架构上有什么创新MoE 架构、高效注意力中文能力如何与 LLaMA/Qwen 对比推理性能如何延迟、吞吐量实测如何部署优化vLLM/llama.cpp 适配这些问题都指向一个核心主题DeepSeek 模型测试。DeepSeek 系列概览┌─────────────────────────────────────────────────────────────────────┐ │ DeepSeek 模型系列 │ ├─────────────────────────────────────────────────────────────────────┤ │ │ │ DeepSeek LLM (第一代): │ │ ┌─────────────────────────────────────────────────────────────┐ │ │ │ 模型7B/16B/67B │ │ │ │ 特点纯中文训练上下文 4K │ │ │ │ 时间2023 年 │ │ │ └─────────────────────────────────────────────────────────────┘ │ │ ↓ │ │ DeepSeek-V2 (第二代): │ │ ┌─────────────────────────────────────────────────────────────┐ │ │ │ 模型16B (MoE)/236B (MoE) │ │ │ │ 特点MoE 架构上下文 128K多 token 预测 │ │ │ │ 时间2024 年中 │ │ │ └─────────────────────────────────────────────────────────────┘ │ │ ↓ │ │ DeepSeek-V2.5 (优化版): │ │ ┌─────────────────────────────────────────────────────────────┐ │ │ │ 模型236B (MoE) │ │ │ │ 特点融合架构代码/数学增强 │ │ │ │ 时间2024 年底 │ │ │ └─────────────────────────────────────────────────────────────┘ │ │ ↓ │ │ DeepSeek-V3 (第三代): │ │ ┌─────────────────────────────────────────────────────────────┐ │ │ │ 模型671B (MoE) │ │ │ │ 特点MLA 注意力MoE 21/37B 激活上下文 256K │ │ │ │ 时间2024 年底 │ │ │ └─────────────────────────────────────────────────────────────┘ │ │ ↓ │ │ DeepSeek-R1 (推理专用): │ │ ┌─────────────────────────────────────────────────────────────┐ │ │ │ 模型671B (MoE) │ │ │ │ 特点强化学习优化推理能力增强 │ │ │ │ 时间2025 年初 │ │ │ └─────────────────────────────────────────────────────────────┘ │ │ │ └─────────────────────────────────────────────────────────────────────┘DeepSeek 模型介绍理解了 DeepSeek 系列的发展历程后让我们深入了解 DeepSeek-V3 的架构特性。DeepSeek-V3 是 DeepSeek 系列的旗舰模型总参数量 671B但通过 MoE 架构每 token 仅激活 21B 参数推理成本与 21B 密集模型相当但性能接近 671B 密集模型。DeepSeek-V3 架构DeepSeek-V3 的基础架构采用 Transformer Decoder-only 设计。MLAMulti-head Latent Attention是 DeepSeek 的核心创新之一通过压缩 KV 为低维潜在向量显著降低了长上下文的显存占用。MoEMixture of Experts配置为 256 个专家每 token 激活 8 个专家加 1 个共享专家激活参数 21B/671B3.1%。Multi-token 预测技术一次预测多个 token提升吞吐量。模型规格方面总参数量 671B激活参数 21B每 token词表大小 102.4k tokens上下文 256K tokens。训练数据约 15T tokens语言包括中文和英文数据截止到 2024 年。效率优化方面MLA 降低 KV Cache 显存MoE 稀疏激活降低计算量多 token 预测一次预测多个 token。这些优化使得 DeepSeek-V3 在保持高性能的同时推理成本大幅降低。MoE 架构详解解释了 MoE 的工作原理。MoEMixture of Experts专家混合使用多个专家网络动态选择激活。DeepSeek-V3 的 MoE 配置为总专家数 256每 token 激活专家 8 个激活参数 21B/671B3.1%共享专家 1 个所有 token 使用。优势包括推理成本与 21B 密集模型相当性能表现接近 671B 密集模型训练效率更高稀疏更新更快收敛灵活性更好不同任务激活不同专家。挑战包括负载均衡确保专家均匀使用、通信开销多卡间专家数据交换、部署复杂需要 MoE 支持的推理引擎。├─────────────────────────────────────────────────┤ │ │ │ 基础架构: │ │ ├── Transformer Decoder-only │ │ ├── MLA (Multi-head Latent Attention) │ │ ├── MoE (Mixture of Experts): 21/37B 激活 │ │ └── Multi-token 预测技术 │ │ │ │ 模型规格: │ │ ├── 总参数量671B │ │ ├── 激活参数21B (每 token) │ │ ├── 词表大小102.4k tokens │ │ └── 上下文256K tokens │ │ │ │ 训练数据: │ │ ├── 数据量~15T tokens │ │ ├── 语言中文 英文 │ │ └── 截止2024 年数据 │ │ │ │ 效率优化: │ │ ├── MLA: 降低 KV Cache 显存 │ │ ├── MoE: 稀疏激活降低计算量 │ │ └── 多 token: 一次预测多个 token │ │ │ └─────────────────────────────────────────────────┘MoE 架构详解┌─────────────────────────────────────────────────┐ │ DeepSeek MoE 架构详解 │ ├─────────────────────────────────────────────────┤ │ │ │ 什么是 MoE: │ │ ├── Mixture of Experts (专家混合) │ │ ├── 多个专家网络动态选择激活 │ │ └── 总参数大激活参数小 │ │ │ │ DeepSeek-V3 MoE 配置: │ │ ├── 总专家数256 │ │ ├── 每 token 激活专家8 │ │ ├── 激活参数21B / 671B 3.1% │ │ └── 共享专家1 个 (所有 token 使用) │ │ │ │ 优势: │ │ ├── 推理成本与 21B 密集模型相当 │ │ ├── 性能表现接近 671B 密集模型 │ │ ├── 训练效率稀疏更新更快收敛 │ │ └── 灵活性不同任务激活不同专家 │ │ │ │ 挑战: │ │ ├── 负载均衡确保专家均匀使用 │ │ ├── 通信开销多卡间专家数据交换 │ │ └── 部署复杂需要 MoE 支持的推理引擎 │ │ │ └─────────────────────────────────────────────────┘架构特点DeepSeek 的架构创新是其性能优势的关键。MLA 注意力和多 token 预测是两项核心技术使得 DeepSeek 在长上下文和高吞吐场景下表现优异。MLA 注意力MLAMulti-head Latent Attention是 DeepSeek 针对长上下文场景的创新设计。传统 Attention 的显存瓶颈在于 KV Cache 随序列长度线性增长256K 上下文需要 TB 级显存这在实际部署中是不可行的。MLA 的解决方案是潜在注意力机制将 KV 压缩为低维潜在向量解码时恢复完整 KV。这种设计将显存减少 10-20 倍使得 256K 上下文可以在单卡上运行。实现细节包括压缩率 16xhidden → latent注意力头从 128标准减少到 16潜在恢复时通过上采样解码。效果非常显著256K 上下文仅需 8-16GB 显存速度与标准 Attention 相当精度无明显损失。这使得 DeepSeek-V3 在长文本应用场景下具有独特优势。多 Token 预测技术是另一项关键创新。传统自回归一次预测 1 个 tokenN 个 token 需要 N 次前向传播延迟高、吞吐低。多 token 预测一次预测 K 个 tokenK2-4N 个 token 需要 N/K 次前向传播吞吐提升 K 倍延迟降低约 K 倍。实现方式包括多输出头每个位置一个预测头辅助损失鼓励准确预测动态 K根据置信度调整。DeepSeek-V3 的配置为默认 K2-3最大 K4吞吐提升 2.5-3 倍。├─────────────────────────────────────────────────┤ │ │ │ 问题传统 Attention 显存瓶颈 │ │ ├── KV Cache 随序列长度线性增长 │ │ ├── 长上下文场景显存不足 │ │ └── 256K 上下文需要 TB 级显存 │ │ │ │ 解决潜在注意力机制 │ │ ├── 压缩 KV 为低维潜在向量 │ │ ├── 解码时恢复完整 KV │ │ ├── 显存减少10-20x │ │ └── 256K 上下文可在单卡运行 │ │ │ │ 实现: │ │ ├── 压缩率16x (hidden → latent) │ │ ├── 注意力头128 (标准) → 16 (潜在) │ │ └── 恢复解码时上采样 │ │ │ │ 效果: │ │ ├── 显存256K 上下文仅需 8-16GB │ │ ├── 速度与标准 Attention 相当 │ │ └── 精度无明显损失 │ │ │ └─────────────────────────────────────────────────┘多 token 预测┌─────────────────────────────────────────────────┐ │ 多 Token 预测技术 │ ├─────────────────────────────────────────────────┤ │ │ │ 传统自回归: │ │ ├── 一次预测 1 个 token │ │ ├── N 个 token 需要 N 次前向传播 │ │ └── 延迟高吞吐低 │ │ │ │ 多 Token 预测: │ │ ├── 一次预测 K 个 token (K2-4) │ │ ├── N 个 token 需要 N/K 次前向传播 │ │ ├── 吞吐提升Kx │ │ └── 延迟降低约 Kx │ │ │ │ 实现方式: │ │ ├── 多输出头每个位置一个预测头 │ │ ├── 辅助损失鼓励准确预测 │ │ └── 动态 K: 根据置信度调整 │ │ │ │ DeepSeek-V3 配置: │ │ ├── 默认 K: 2-3 │ │ ├── 最大 K: 4 │ │ └── 吞吐提升2.5-3x │ │ │ └─────────────────────────────────────────────────┘推理性能测试部署好 DeepSeek 模型后需要进行性能测试以验证配置是否正确。DeepSeek 的 MoE 架构使得性能测试尤为重要因为激活参数少但总参数多需要确保推理引擎正确支持 MoE。vLLM 部署测试性能基准测试脚本通过发送多个请求到 vLLM 服务测量每个请求的 token 数、时间、以及速度tokens/s。测试结果可以与官方参考值对比。性能参考表提供了不同配置下的预期性能。DeepSeek-V2-16B 在 FP16、1xA100 时吞吐量约 120-150 tokens/s延迟 40-55ms。INT4 量化后吞吐量提升到 180-220 tokens/s延迟降低到 30-40ms。DeepSeek-V3-671B 需要多卡部署。MoE、8xH100 时吞吐量约 80-100 tokens/s延迟 100-150ms。16xH100 时吞吐量约 150-180 tokens/s延迟 80-120ms。32xH100 时吞吐量约 280-320 tokens/s延迟 60-90ms。DeepSeek-R1-671B推理优化版在 MoE、16xH100 时吞吐量约 140-170 tokens/s延迟 85-125ms。import time import requests import statistics def benchmark_deepseek(base_url: str http://localhost:8000): DeepSeek 性能基准测试 print(*70) print(DeepSeek 性能基准测试) print(*70) # 测试提示 prompts [ 请介绍一下人工智能。, 什么是深度学习, 机器学习有哪些应用场景, ] results [] print(f\n{Prompt:30} {Tokens:10} {Time (s):12} {Tokens/s:12}) print(-*70) for prompt in prompts: start time.perf_counter() response requests.post( f{base_url}/v1/chat/completions, json{ model: deepseek, messages: [{role: user, content: prompt}], max_tokens: 200, temperature: 0.7 } ) elapsed time.perf_counter() - start if response.status_code 200: data response.json() content data[choices][0][message][content] tokens len(content.split()) tokens_per_sec tokens / elapsed results.append({ prompt: prompt[:20], tokens: tokens, time: elapsed, tokens_per_sec: tokens_per_sec }) print(f{prompt[:30]:30} {tokens:10} {elapsed:12.2f} {tokens_per_sec:12.1f}) # 统计 avg_tps statistics.mean([r[tokens_per_sec] for r in results]) print(-*70) print(f平均速度{avg_tps:.1f} tokens/s) return results if __name__ __main__: benchmark_deepseek()性能参考值┌────────────────────────────────────────────────────────────────────┐ │ DeepSeek 推理性能参考 │ ├──────────────────┬─────────────┬─────────────┬─────────────────────┤ │ 配置 │ 吞吐量 │ 延迟 │ 显存占用 │ │ │ (tok/s) │ (ms) │ (GB) │ ├──────────────────┼─────────────┼─────────────┼─────────────────────┤ │ DeepSeek-V2-16B │ │ │ │ │ FP16, 1xA100 │ 120-150 │ 40-55 │ 32-36 │ │ INT4, 1xA100 │ 180-220 │ 30-40 │ 16-20 │ ├──────────────────┼─────────────┼─────────────┼─────────────────────┤ │ DeepSeek-V3-671B │ │ │ │ │ MoE, 8xH100 │ 80-100 │ 100-150 │ 640-720 │ │ MoE, 16xH100 │ 150-180 │ 80-120 │ 640-720 │ │ MoE, 32xH100 │ 280-320 │ 60-90 │ 640-720 │ ├──────────────────┼─────────────┼─────────────┼─────────────────────┤ │ DeepSeek-R1-671B │ │ │ │ │ MoE, 16xH100 │ 140-170 │ 85-125 │ 640-720 │ └──────────────────┴─────────────┴─────────────┴─────────────────────┘ 注测试条件 vLLMMoE 激活 21B 参数实际性能受配置影响中文场景优化DeepSeek 的核心优势在于中文能力。与 LLaMA 相比DeepSeek 在中文理解、中文生成、中文知识等方面都有显著优势。与 Qwen 相比两者在中文能力上相当各有特色。中文能力对比中文理解方面DeepSeek-V3 和 Qwen-2.5 都是五星最优LLaMA-3 是三星良好。DeepSeek 的优势在于纯中文训练数据对中文语境的理解更准确。中文生成方面DeepSeek-V3 和 Qwen-2.5 都是五星流畅自然LLaMA-3 是三星偶有生硬。DeepSeek 的优势在于中文语感更好生成的中文更自然。中文知识方面DeepSeek-V3 和 Qwen-2.5 都是五星中国知识丰富LLaMA-3 是二星西方知识为主。DeepSeek 的优势在于中文百科、历史、文化知识更丰富。代码能力方面三者都是四星优秀差距不大均支持主流编程语言。数学推理方面DeepSeek-R1 是五星推理优化DeepSeek-V3 和 LLaMA-3 都是四星优秀。DeepSeek-R1 专为推理优化在数学和逻辑推理任务上表现优异。中文 Benchmark 对比数据显示DeepSeek-V3 和 Qwen-2.5 在中文任务上明显优于 LLaMA-3。C-Eval综合DeepSeek-V3 85.2%Qwen-2.5 86.5%LLaMA-3-70B 62.3%。CMMLU多选DeepSeek-V3 83.5%Qwen-2.5 84.2%LLaMA-3-70B 58.7%。MMLU-CN中文DeepSeek-V3 82.1%Qwen-2.5 83.8%LLaMA-3-70B 60.5%。HumanEval-CN代码DeepSeek-V3 78.5%Qwen-2.5 79.2%LLaMA-3-70B 72.0%。GSM8K-CN数学DeepSeek-V3 88.2%Qwen-2.5 87.5%LLaMA-3-70B 85.0%。C3阅读理解DeepSeek-V3 86.8%Qwen-2.5 87.2%LLaMA-3-70B 65.5%。├─────────────────────────────────────────────────┤ │ │ │ 中文理解: │ │ ├── DeepSeek-V3: ⭐⭐⭐⭐⭐ (最优) │ │ ├── Qwen-2.5: ⭐⭐⭐⭐⭐ (最优) │ │ ├── LLaMA-3: ⭐⭐⭐ (良好) │ │ └── DeepSeek 优势纯中文训练数据 │ │ │ │ 中文生成: │ │ ├── DeepSeek-V3: ⭐⭐⭐⭐⭐ (流畅自然) │ │ ├── Qwen-2.5: ⭐⭐⭐⭐⭐ (流畅自然) │ │ ├── LLaMA-3: ⭐⭐⭐ (偶有生硬) │ │ └── DeepSeek 优势中文语感更好 │ │ │ │ 中文知识: │ │ ├── DeepSeek-V3: ⭐⭐⭐⭐⭐ (中国知识丰富) │ │ ├── Qwen-2.5: ⭐⭐⭐⭐⭐ (中国知识丰富) │ │ ├── LLaMA-3: ⭐⭐ (西方知识为主) │ │ └── DeepSeek 优势中文百科/历史/文化 │ │ │ │ 代码能力: │ │ ├── DeepSeek-V3: ⭐⭐⭐⭐ (优秀) │ │ ├── Qwen-2.5: ⭐⭐⭐⭐ (优秀) │ │ ├── LLaMA-3: ⭐⭐⭐⭐ (优秀) │ │ └── 差距不大均支持主流编程语言 │ │ │ │ 数学推理: │ │ ├── DeepSeek-R1: ⭐⭐⭐⭐⭐ (推理优化) │ │ ├── DeepSeek-V3: ⭐⭐⭐⭐ (优秀) │ │ ├── LLaMA-3: ⭐⭐⭐⭐ (优秀) │ │ └── DeepSeek-R1 专为推理优化 │ │ │ └─────────────────────────────────────────────────┘中文 Benchmark 对比┌────────────────────────────────────────────────────────────────────┐ │ 中文 Benchmark 对比 │ ├──────────────────┬─────────────┬─────────────┬─────────────────────┤ │ Benchmark │ DeepSeek-V3 │ Qwen-2.5 │ LLaMA-3-70B │ ├──────────────────┼─────────────┼─────────────┼─────────────────────┤ │ C-Eval (综合) │ 85.2% │ 86.5% │ 62.3% │ │ CMMLU (多选) │ 83.5% │ 84.2% │ 58.7% │ │ MMLU-CN (中文) │ 82.1% │ 83.8% │ 60.5% │ │ HumanEval-CN │ 78.5% │ 79.2% │ 72.0% │ │ GSM8K-CN (数学) │ 88.2% │ 87.5% │ 85.0% │ │ C3 (阅读理解) │ 86.8% │ 87.2% │ 65.5% │ └──────────────────┴─────────────┴─────────────┴─────────────────────┘ 注DeepSeek 和 Qwen 在中文任务上明显优于 LLaMA与其他模型对比理解了 DeepSeek 的中文优势后让我们从更全面的角度对比 DeepSeek、Qwen 和 LLaMA。这三个模型系列各有特色适用于不同的场景。综合对比综合对比从多个维度评估三个模型系列。中文能力DeepSeek 和 Qwen 都是五星LLaMA 是三星DeepSeek 和 Qwen 优势明显。英文能力LLaMA 是五星DeepSeek 和 Qwen 是四星LLaMA 优势明显。代码能力三者都是四星相当。数学推理DeepSeek 是五星R1 优化Qwen 和 LLaMA 是四星DeepSeek 略有优势。推理成本DeepSeek 是四星MoE 优势Qwen 是四星LLaMA 是三星DeepSeek 和 Qwen 优势明显。生态支持LLaMA 是五星最广泛Qwen 是四星DeepSeek 是三星LLaMA 优势明显。开源许可DeepSeekMIT和 QwenApache优于 LLaMALlama 社区许可。综合推荐三者都是四星需要根据场景选择。选择建议选择 DeepSeek 的场景包括中文应用为主、需要强推理能力选 R1、关注推理成本MoE 架构、需要宽松开源许可MIT。选择 Qwen 的场景包括中英文混合应用、需要完整工具链支持、阿里云生态集成、企业级应用。选择 LLaMA 的场景包括英文应用为主、需要最广泛生态支持、研究与学术用途、国际化部署。├──────────────┬─────────────┬─────────────┬─────────────┬──────────┤ │ 维度 │ DeepSeek │ Qwen │ LLaMA │ 备注 │ ├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤ │ 中文能力 │ ⭐⭐⭐⭐⭐ │ ⭐⭐⭐⭐⭐ │ ⭐⭐⭐ │ D/Q 优 │ ├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤ │ 英文能力 │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐⭐ │ L 优 │ ├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤ │ 代码能力 │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ 相当 │ ├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤ │ 数学推理 │ ⭐⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ D 优 │ ├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤ │ 推理成本 │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ ⭐⭐⭐ │ MoE 优 │ ├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤ │ 生态支持 │ ⭐⭐⭐ │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐⭐ │ L 最优 │ ├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤ │ 开源许可 │ MIT │ Apache │ Llama │ D/Q 优 │ ├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤ │ 综合推荐 │ ★★★★☆ │ ★★★★☆ │ ★★★★☆ │ 看场景 │ └──────────────┴─────────────┴─────────────┴─────────────┴──────────┘选择建议┌─────────────────────────────────────────────────┐ │ 模型选择建议 │ ├─────────────────────────────────────────────────┤ │ │ │ 选择 DeepSeek 的场景: │ │ ✓ 中文应用为主 │ │ ✓ 需要强推理能力 (选 R1) │ │ ✓ 关注推理成本 (MoE 架构) │ │ ✓ 需要宽松开源许可 (MIT) │ │ │ │ 选择 Qwen 的场景: │ │ ✓ 中英文混合应用 │ │ ✓ 需要完整工具链支持 │ │ ✓ 阿里云生态集成 │ │ ✓ 企业级应用 │ │ │ │ 选择 LLaMA 的场景: │ │ ✓ 英文应用为主 │ │ ✓ 需要最广泛生态支持 │ │ ✓ 研究与学术用途 │ │ ✓ 国际化部署 │ │ │ └─────────────────────────────────────────────────┘实战部署DeepSeek 模型的部署与其他模型类似支持 vLLM 和 llama.cpp 等主流推理引擎。由于 DeepSeek-V3 使用 MoE 架构需要确保推理引擎支持 MoE。vLLM 部署 DeepSeekvLLM 部署脚本展示了如何启动 DeepSeek-V3 服务。配置包括模型名称、端口、张量并行数8、最大序列长度256K、显存利用率0.9、分块预填充、以及信任远程代码MoE 需要。启动后服务提供 OpenAI API 兼容接口。llama.cpp 部署脚本展示了如何在 CPU 或混合模式下运行 DeepSeek。配置包括 GGUF 模型路径、端口、GPU 层数、上下文大小、批处理大小。这使得 DeepSeek 可以在无 GPU 或有限 GPU 的设备上运行。echo echo vLLM 部署 DeepSeek-V3 echo # 配置 MODEL${MODEL:-deepseek-ai/DeepSeek-V3} PORT${PORT:-8000} TP_SIZE${TP_SIZE:-8} echo echo 部署配置: echo 模型$MODEL echo 端口$PORT echo 张量并行$TP_SIZE echo # 启动服务 python3 -m vllm.entrypoints.openai.api_server \ --model $MODEL \ --host 0.0.0.0 \ --port $PORT \ --tensor-parallel-size $TP_SIZE \ --max-model-len 256000 \ --gpu-memory-utilization 0.9 \ --enable-chunked-prefill \ --trust-remote-code echo echo echo DeepSeek-V3 服务已启动 echo echo echo API 端点http://localhost:$PORT/v1llama.cpp 部署 DeepSeek#!/bin/bash # deploy_deepseek_llamacpp.sh - llama.cpp 部署 DeepSeek echo echo llama.cpp 部署 DeepSeek echo # 配置 MODEL${MODEL:-~/.cache/llama.cpp/models/deepseek-v3-q4_k_m.gguf} PORT${PORT:-8080} N_GPU${N_GPU:-35} echo echo 部署配置: echo 模型$MODEL echo 端口$PORT echo GPU 层数$N_GPU echo # 启动服务 cd /opt/llama.cpp ./server \ -m $MODEL \ --host 0.0.0.0 \ --port $PORT \ -ngl $N_GPU \ -c 32768 \ --batch-size 512 echo echo echo DeepSeek 服务已启动 echo 选型建议选择合适的 DeepSeek 模型需要考虑场景需求、硬件条件、以及预算限制。下面的选型建议可以帮助你做出合适的选择。场景推荐中文客服系统推荐 DeepSeek-V2-16B。显存需求 16-20GBINT4硬件要求单卡 A10/RTX 4090。优势是中文流畅、成本低。智能写作助手推荐 DeepSeek-V3-671B。显存需求 640-720GB硬件要求 8-16 卡 H100。优势是长上下文、高质量生成。数学/逻辑推理推荐 DeepSeek-R1-671B。显存需求 640-720GB硬件要求 16 卡 H100。优势是推理优化、步骤清晰。代码辅助推荐 DeepSeek-Coder-V2。显存需求 32-40GB硬件要求单卡 A100/双卡 A10。优势是代码专用、支持多语言。个人/本地使用推荐 DeepSeek-V2-16BINT4。显存需求 10-14GB硬件要求 RTX 3090/4090 或 CPU。优势是本地运行、隐私保护。成本对比表显示了不同配置的硬件成本、云成本、以及性能/成本比。V2-16B 单卡硬件成本约4,000云成本4,000云成本600-900/月性能/成本比五星。V3-671B 8 卡硬件成本约80,000云成本80,000云成本8,000-12,000/月性能/成本比四星。V3-671B 16 卡硬件成本约160,000云成本160,000云成本16,000-24,000/月性能/成本比五星。R1-671B 16 卡硬件成本约160,000云成本160,000云成本16,000-24,000/月性能/成本比四星。DeepSeek MoE 架构的性能/成本比优于同级别密集模型。├─────────────────────────────────────────────────┤ │ │ │ 中文客服系统: │ │ ├── 推荐DeepSeek-V2-16B │ │ ├── 显存16-20GB (INT4) │ │ ├── 硬件单卡 A10/RTX 4090 │ │ └── 优势中文流畅成本低 │ │ │ │ 智能写作助手: │ │ ├── 推荐DeepSeek-V3-671B │ │ ├── 显存640-720GB │ │ ├── 硬件8-16 卡 H100 │ │ └── 优势长上下文高质量生成 │ │ │ │ 数学/逻辑推理: │ │ ├── 推荐DeepSeek-R1-671B │ │ ├── 显存640-720GB │ │ ├── 硬件16 卡 H100 │ │ └── 优势推理优化步骤清晰 │ │ │ │ 代码辅助: │ │ ├── 推荐DeepSeek-Coder-V2 │ │ ├── 显存32-40GB │ │ ├── 硬件单卡 A100/双卡 A10 │ │ └── 优势代码专用支持多语言 │ │ │ │ 个人/本地使用: │ │ ├── 推荐DeepSeek-V2-16B (INT4) │ │ ├── 显存10-14GB │ │ ├── 硬件RTX 3090/4090 或 CPU │ │ └── 优势本地运行隐私保护 │ │ │ └─────────────────────────────────────────────────┘成本对比┌────────────────────────────────────────────────────────────────────┐ │ DeepSeek 部署成本对比 │ ├──────────────────┬─────────────┬─────────────┬─────────────────────┤ │ 配置 │ 硬件成本 │ 云成本 │ 性能/成本比 │ │ │ (一次性) │ (月租) │ │ ├──────────────────┼─────────────┼─────────────┼─────────────────────┤ │ V2-16B 单卡 │ $4,000 │ $600-900 │ ⭐⭐⭐⭐⭐ │ │ V3-671B 8 卡 │ $80,000 │ $8K-12K │ ⭐⭐⭐⭐ │ │ V3-671B 16 卡 │ $160,000 │ $16K-24K │ ⭐⭐⭐⭐⭐ │ │ R1-671B 16 卡 │ $160,000 │ $16K-24K │ ⭐⭐⭐⭐ │ └──────────────────┴─────────────┴─────────────┴─────────────────────┘ 注DeepSeek MoE 架构性能/成本比优于同级别密集模型总结今天学到的内容✅DeepSeek 模型介绍系列演进、V3/R1 特性✅架构特点MoE、MLA、多 token 预测✅推理性能测试vLLM 基准测试、性能参考✅中文场景优化中文能力对比、Benchmark✅与其他模型对比DeepSeek vs Qwen vs LLaMA✅实战部署vLLM/llama.cpp 部署✅选型建议场景推荐、成本对比下一步明天我们将学习Day 21 - Qwen 模型测试深入了解Qwen 系列模型介绍多语言支持测试推理性能 benchmark应用场景分析

相关文章:

(二十二)32天GPU测试从入门到精通-DeepSeek 模型测试day20

目录 引言DeepSeek 模型介绍架构特点推理性能测试中文场景优化与其他模型对比实战部署选型建议 引言 DeepSeek 是中国深度求索公司开发的大语言模型系列,以出色的中文能力和高性价比著称,是国产大模型的代表之一。从 2023 年的第一代 DeepSeek LLM&…...

AI 驱动与 Wi-Fi 7 双剑合璧,全屋智能家居迎来“认知革命”

如果你觉得智能家居不过是“用手机开关灯”或者“对着音箱问问天气”,那么 2026 年的今天,这个定义已经被彻底颠覆。在 AI 大模型与 Wi-Fi 7 下一代无线网络技术的深度加持下,家庭空间正从“联网的房屋”进化为拥有感知、决策与执行能力的“智…...

ROS小车换雷达后建图重影?别急着调TF,先检查这个关键参数(附完整排查清单)

ROS小车换雷达后建图重影?别急着调TF,先检查这个关键参数(附完整排查清单) 刚给ROS导航小车换上新的激光雷达,满心期待地启动gmapping建图,结果地图上却出现了令人头疼的重影现象。作为经历过多次类似问题的…...

C++代码静态检查脚本工具(指针判空越界访问除0风险)

做了个小项目需要进行代码规范检查,但试了两个CPP静态检查工具,效果都不太好。为了快速迭代维护,直接用pyAI写了个常规代码规范校验脚本工具。目前实现三个功能并封了界面:空指针访问、数组越界访问、除0风险排查。用sample文件夹…...

Halcon实战:光源不均场景下的平场矫正优化策略

1. 光源不均问题的工业视觉挑战 在工业视觉检测中,光源分布不均是最常见的干扰因素之一。想象一下用手机在逆光环境下拍照——画面中某些区域会过曝,而另一些区域又太暗。工业场景中的情况更为复杂:环形光源老化导致的亮度衰减、多角度照射产…...

CV算法工程师求职全攻略:25个知识点帮你通关面试

CV算法工程师求职全攻略:25个知识点帮你通关面试很多同学让我写面试指南,我一直没动笔。因为面试这事儿没有标准答案,说多了容易让人焦虑。 但今天还是聊聊,毕竟有些经验可以分享。 面试官到底看什么 招一个CV算法工程师&#xff…...

2026 年 Intel 酷睿 Ultra 平台装机:华硕主板全系列专业主板测评与精准选购指南

进入 2026 年,Intel 酷睿 Ultra 200S Plus新品的到来,完成消费级市场的全面落地,新一代硬件架构为游戏、内容创作、AI 应用带来了全新的性能体验。在整机搭建过程中,主板怎么选成为多数用户的核心疑问,华硕主板作为 Intel 平台的核心合作产品,覆盖了从旗舰到入门的全价位段需求…...

AI Agent求职被拒最常见的原因是什么

这些实际上更像工程问题,公司愿意给30k月薪的原因就在这里,Agent开发不是玩具技术人,是能把玩具变成生产力的人。这环节最直接有效的方法就是跟着项目完整走一遍,如果你无从下手,趁着有大佬带队,你直接跟着…...

45、如何理解和实现递归?数组扁平化里递归有什么缺陷?

目录 一、先给面试里的标准定义 什么是递归? 二、递归的核心组成 1. 终止条件 2. 当前层逻辑 3. 递归子问题 三、如何写递归?一个通用思路 例子:求 1 到 n 的和 拆解: 四、递归的执行过程怎么理解? 1. 递进…...

昇腾ATC工具实战:如何为PP-OCRv4文本检测模型设置动态输入(Batch/分辨率/Shape)

昇腾ATC工具深度实战:PP-OCRv4文本检测模型动态输入配置全解析 当工业级OCR系统遇到尺寸各异的身份证、发票或模糊的街景文字时,固定输入尺寸的模型往往成为性能瓶颈。某物流公司曾因无法处理不同规格的运单图片,导致识别准确率骤降30%。这正…...

Java 高级特性” 体系(反射 + 枚举 + Lambda)

1.反射 1.1 定义 Java的反射(reflection)机制是在运行状态中,对于任意一个类,都能够知道这个类的所有属性和方法; 不用 new,不用知道类名,也能操作类。 1.2 用途 框架底层核心(S…...

手把手教你用F1C200s驱动正点原子7寸LCD屏:完整配置流程与LVGL测试

从零构建F1C200s嵌入式GUI系统:正点原子7寸屏驱动与LVGL实战指南 在嵌入式开发领域,显示界面的人机交互体验越来越受到重视。F1C200s作为一款性价比极高的国产ARM9芯片,搭配正点原子7寸LCD屏,能够构建出性能稳定、成本可控的嵌入式…...

2026届最火的降重复率方案推荐榜单

Ai论文网站排名(开题报告、文献综述、降aigc率、降重综合对比) TOP1. 千笔AI TOP2. aipasspaper TOP3. 清北论文 TOP4. 豆包 TOP5. kimi TOP6. deepseek 于学术研究范畴之内,论文AI网站已然成了提升写作效率的关键工具,这种…...

主流Attention Backend技术选型与实战场景剖析

1. Attention Backend技术全景解析 当你用ChatGPT生成一段文字,或者让Stable Diffusion画一幅画时,背后都有一个关键组件在默默工作——Attention Backend。这就像汽车发动机里的涡轮增压器,虽然用户看不见,却直接决定了AI模型的&…...

亲测口碑好的物联网开发生产厂家分享

亲测口碑好的物联网开发生产厂家分享行业痛点分析在当前物联网开发领域,存在着诸多技术挑战。首先,设备兼容性难题突出,不同品牌、型号的物联网设备通信协议和接口各异,导致系统集成困难。数据表明,约 60%的物联网项目…...

革命性智能交互助手:Live2D AI如何重塑用户体验边界

革命性智能交互助手:Live2D AI如何重塑用户体验边界 【免费下载链接】live2d_ai 基于live2d.js实现的动画小人ai,拥有聊天功能,还有图片识别功能,可以嵌入到网页里 项目地址: https://gitcode.com/gh_mirrors/li/live2d_ai …...

**大模型Agent面试全解析:手把手带你拿下高薪Offer,小白也能收藏学!**

大模型Agent面试全解析:手把手带你拿下高薪Offer,小白也能收藏学! 本文分享了作者在阿里大模型Agent应用算法岗的三轮面试经历,涵盖Agent核心技术模块(规划、感知、工具、记忆)、微调、提示工程、算法设计、…...

AH1008:一款宽输入10-55V,输出5V/5A的高效同步整流降压DC-DC转换器

在电源管理芯片领域,宽输入电压范围与大电流输出能力往往是衡量产品实用性的重要指标。本文将介绍一款采用同步整流技术的降压型DC-DC转换器——AH1008,探讨其在10-55V输入转5V/5A应用中的技术特点与设计优势。宽输入电压范围,TEL&#xff1a…...

**一周快速上手:传统研发平台接入Agent开发能力的完整指南(含收藏)**

一周快速上手:传统研发平台接入Agent开发能力的完整指南(含收藏) 本文详细介绍了如何在一周内为传统研发平台接入Agent开发能力,采用Next.jsReact和LangGraph构建Agent状态图,通过系统提示词优化、RAG知识库建设&#…...

keil工程点击build报错FCARM - Output Name not specified, please check ‘Options for Target - Utilities‘

kile工程链接时报错FCARM - Output Name not specified, please check ‘Options for Target - Utilities’ 问题:拷贝了一个keil模板例程,对其中地一些代码文件路径做了调整,并重新添加了代码文件。编译没报错,点击buile链接时报…...

支承套零件加工工艺编程及夹具设计(论文 CAD图纸 开题报告 任务书 加工程序)

支承套作为机械传动系统中的关键零件,其加工精度直接影响设备运行的稳定性。针对该零件的加工工艺编程与夹具设计,需从零件结构特性出发,结合加工设备性能参数,制定科学合理的工艺方案。通过分析支承套的轴向定位孔、径向配合面等…...

旋架式加速度过载模拟实验台结构设计与分析(论文+CAD+SolidWorks+开题报告+任务书+外文翻译……)

旋架式加速度过载模拟实验台是机械工程领域中用于模拟极端加速度环境的关键设备,其核心作用在于为航天器、汽车零部件或高过载装备的可靠性测试提供可控的实验条件。通过旋架结构的旋转运动,实验台能够精确复现不同方向、不同幅值的加速度过载场景&#…...

掌握AI Agent,抢占未来先机:收藏这份小白进阶大模型指南!

掌握AI Agent,抢占未来先机:收藏这份小白进阶大模型指南! AI Agent正引领计算机交互革命,超越文本生成,通过“大脑规划工具调用记忆经验”直接操控应用与设备。本文解析其工作原理、行业竞争格局(OpenAI、…...

【VimRAG 】技术解析:阿里通义实验室多模态记忆图 RAG 框架深度剖析

文章目录VimRAG 技术解析:阿里通义实验室多模态记忆图 RAG 框架深度剖析一、引言二、问题根源:传统 RAG 在多模态场景下的三重困境三、核心架构:三大技术组件3.1 多模态记忆图(MMG)3.2 图调制视觉记忆编码(…...

小白程序员必看:零基础转型大模型应用开发,薪资涨幅超30%!收藏版学习路径分享

小白程序员必看:零基础转型大模型应用开发,薪资涨幅超30%!收藏版学习路径分享 本文分享了我从传统后端开发转型大模型应用开发的完整学习路径,分为入门启蒙、进阶夯实、核心突破、效率提升和思维升级五个阶段。重点介绍了提示词工…...

掌握MCP与Skill:大模型小白/程序员的收藏必备学习指南

掌握MCP与Skill:大模型小白/程序员的收藏必备学习指南 本文深入解析AI Agent中MCP与Skill的核心区别:MCP作为连接层解决"AI能访问什么"(外部数据/工具),Skill作为知识层解决"AI知道怎么做什么"&am…...

保姆级教程:用CBLPRD-330k数据集训练你的第一个车牌识别模型(附ResNet18+CTC实战代码)

从零构建车牌识别模型:CBLPRD-330k数据集实战指南 车牌识别技术作为计算机视觉领域的重要应用,正在智能交通、安防监控等场景中发挥越来越大的作用。对于刚入门的开发者来说,如何利用公开数据集快速搭建一个可用的车牌识别模型,往…...

OneAPI部署实操手册:从零配置到多渠道管理,支持腾讯混元、通义千问、文心一言等全生态

OneAPI部署实操手册:从零配置到多渠道管理,支持腾讯混元、通义千问、文心一言等全生态 你是不是也遇到过这样的烦恼?想用通义千问写代码,用文心一言做PPT,用腾讯混元分析数据,结果每个平台都要单独注册、单…...

从水处理到工控安全:WADI数据集在异常检测中的独特价值与应用场景解析

WADI数据集:工业控制系统异常检测的黄金标准与实践指南 工业控制系统(ICS)的安全防护一直是关键基础设施保护的核心议题。想象一下,一座城市的供水系统突然遭到网络攻击,导致水质异常或供水中断——这不仅会造成经济损失,更直接威…...

掌握Context Graph核心逻辑,小白程序员也能轻松入门大模型并收藏学习!

掌握Context Graph核心逻辑,小白程序员也能轻松入门大模型并收藏学习! Context Graph是当前企业AI领域的热点,掌握其核心逻辑有助于程序员和企业AI从业者快速跟上发展。它通过记录企业决策路径与执行过程,弥补了传统数据平台只关注…...