当前位置: 首页 > article >正文

搭建你的第一座“模型工厂”——5分钟部署开源大模型

用Ollama部署开源模型整个过程不超过5分钟。但跑起来只是第一步——这篇还会带你做一件事在同一台机器上部署两个不同尺寸的模型跑同一组问题填一份模型选型对比表。以后你做技术选型时这一套方法直接复用。3.1 安装OllamaOllama是目前对开发者最友好的本地模型管理工具一条命令就能拉取和运行模型。它提供类似Docker的使用体验但没有容器那一层复杂度。macOS / Windows直接去 ollama.com 下载安装包双击安装。装完后菜单栏会出现一个羊驼图标后台服务自动启动。Linux bash curl -fsSL https://ollama.com/install.sh | sh装完验证一下bash ollama --version # 输出类似ollama version 0.5.73.2 拉取并运行第一个模型我们选用阿里开源的Qwen2.5系列中文问答能力在开源模型里属于第一梯队。先拉7B版本bash ollama pull qwen2.5:7b7b表示70亿参数压缩后约4~5GB8GB内存的机器能跑但会占满16GB内存比较从容。拉完后直接对话bash ollama run qwen2.5:7b你会进入一个交互式终端直接打字提问text 用一句话解释Java的GC机制模型会逐字输出回答。退出按Ctrl D或输入/bye。如果下载速度慢可以使用镜像加速。Ollama默认从它的官方仓库拉取国内用户可设置环境变量bash # 一些社区提供的加速镜像按需选用 export OLLAMA_HOST0.0.0.0:114343.3 用代码调用Ollama终端里聊只能测试真正开发要通过API。Ollama启动后默认监听http://localhost:11434接口兼容OpenAI格式可以直接用我们第2篇写的chat_completion_stream来调。但既然Ollama有自己的轻量API这里给出一个更直接的封装方便后续调用。python ollama_client.py Ollama模型的Python客户端封装 本文件对应 stage01_env/ollama_client.py import httpx import json from typing import AsyncIterator, Optional class OllamaClient: 封装Ollama的聊天和生成接口。 def __init__(self, base_url: str http://localhost:11434): self.base_url base_url.rstrip(/) # ---------- 同步版 ---------- def chat_sync(self, model: str, messages: list[dict]) - str: 同步对话返回完整回答。 用于脚本、测试、不需要流式的场景。 url f{self.base_url}/api/chat payload { model: model, messages: messages, stream: False, } with httpx.Client(timeout120.0) as client: response client.post(url, jsonpayload) response.raise_for_status() data response.json() return data[message][content] # ---------- 异步流式版 ---------- async def chat_stream(self, model: str, messages: list[dict]) - AsyncIterator[str]: 异步流式对话逐token返回。 适用于Web服务、实时对话界面。 url f{self.base_url}/api/chat payload { model: model, messages: messages, stream: True, } async with httpx.AsyncClient(timeout120.0) as client: async with client.stream(POST, url, jsonpayload) as response: response.raise_for_status() async for line in response.aiter_lines(): try: chunk json.loads(line) content chunk.get(message, {}).get(content, ) if content: yield content except json.JSONDecodeError: continue # ---------- 工具方法 ---------- def list_models(self) - list[dict]: 列出本地已安装的模型。 url f{self.base_url}/api/tags with httpx.Client() as client: response client.get(url) response.raise_for_status() return response.json().get(models, []) def pull_model(self, model_name: str) - None: 拉取模型同步会阻塞直到完成。 如果需要进度调用方可以改用异步流式版本。 url f{self.base_url}/api/pull payload {name: model_name, stream: False} with httpx.Client(timeout600.0) as client: response client.post(url, jsonpayload) response.raise_for_status()测试一下python import asyncio async def test_ollama(): client OllamaClient() msgs [{role: user, content: 什么是RAG用两句话说清楚}] async for token in client.chat_stream(qwen2.5:7b, msgs): print(token, end, flushTrue) asyncio.run(test_ollama())3.4 实战模型选型对比实验好了现在来做真正有价值的事。同一台机器部署两个不同尺寸的模型跑同一组测试问题然后填一份对比表。这一套你以后在自己项目里做模型选型可以直接照搬。3.4.1 拉取两个对比模型bash # 7B版本主力 ollama pull qwen2.5:7b # 1.5B轻量版本对比用 ollama pull qwen2.5:1.5b1.5B版本只有约1GB大小内存占用小但回答质量会有所下降。具体差距多少数据说话。3.4.2 编写对比测试脚本python model_benchmark.py 对比不同模型在相同问题上的表现 本文件对应 stage01_env/model_benchmark.py import asyncio import time from ollama_client import OllamaClient # 测试问题集覆盖不同难度和类型 TEST_QUESTIONS [ # 简单事实型 什么是Java的垃圾回收机制, # 知识解释型 请解释微服务架构中的服务发现原理, # 代码生成型 用Python写一个快速排序函数带注释, # 逻辑推理型 如果数据库查询变慢可能有哪些原因, # 中文理解型 请用中文总结Spring Boot的三大核心特性, ] MODELS [qwen2.5:7b, qwen2.5:1.5b] async def benchmark_single_model(client: OllamaClient, model: str, questions: list[str]) - list[dict]: 对单个模型跑全部测试问题返回带性能数据的结果。 results [] for i, question in enumerate(questions): print(f [{model}] 测试 {i1}/{len(questions)}: {question[:40]}...) messages [{role: user, content: question}] start time.perf_counter() full_response token_count 0 first_token_time None async for token in client.chat_stream(model, messages): if first_token_time is None: first_token_time time.perf_counter() full_response token token_count 1 end time.perf_counter() total_time end - start ttft first_token_time - start if first_token_time else 0 results.append({ question: question, model: model, response: full_response, total_time_sec: round(total_time, 2), first_token_sec: round(ttft, 2), token_count: token_count, # tokens/s 计算排除首个token等待 tokens_per_sec: round( (token_count - 1) / (total_time - ttft), 2 ) if total_time ttft and token_count 1 else 0, }) # 每个问题之间休息1秒避免显存/CPU飙满 await asyncio.sleep(1) return results def print_comparison_table(all_results: dict[str, list[dict]]): 打印对比汇总表。 print(\n * 80) print(模型选型对比报告) print( * 80) for model in MODELS: results all_results[model] avg_total sum(r[total_time_sec] for r in results) / len(results) avg_ttft sum(r[first_token_sec] for r in results) / len(results) avg_tokens sum(r[token_count] for r in results) / len(results) avg_tps sum(r[tokens_per_sec] for r in results) / len(results) print(f\n 模型: {model}) print(f 平均总耗时: {avg_total:.2f} 秒) print(f 平均首token延迟: {avg_ttft:.2f} 秒) print(f 平均回复长度: {avg_tokens:.0f} tokens) print(f 平均生成速度: {avg_tps:.2f} tokens/s) # 定性对比展示取第一个问题的回答作为样例 print(\n - * 40) print(定性对比第1题回答节选) print(- * 40) q0 TEST_QUESTIONS[0] for model in MODELS: resp all_results[model][0][response] print(f\n[{model}] {q0}) # 截取前200字 print(f → {resp[:200]}...) async def main(): client OllamaClient() # 确保模型已安装 installed [m[name] for m in client.list_models()] for model in MODELS: if model not in installed: print(f模型 {model} 未安装正在拉取...) client.pull_model(model) all_results {} for model in MODELS: print(f\n▶ 开始测试模型: {model}) all_results[model] await benchmark_single_model( client, model, TEST_QUESTIONS ) print_comparison_table(all_results) if __name__ __main__: asyncio.run(main())3.4.3 运行对比测试bash cd stage01_env python model_benchmark.py刚开始跑1.5B版本速度会明显快7B版本会明显慢尤其是8GB内存的机器上。最终你会得到类似这样的对比表text 模型: qwen2.5:7b 平均总耗时: 12.35 秒 平均首token延迟: 2.10 秒 平均回复长度: 218 tokens 平均生成速度: 21.5 tokens/s 模型: qwen2.5:1.5b 平均总耗时: 4.20 秒 平均首token延迟: 0.60 秒 平均回复长度: 145 tokens 平均生成速度: 40.3 tokens/s然后看定性部分7B的回答更完整、更准确尤其是逻辑推理型问题上差异明显1.5B会偏简短有时会跑题或遗漏关键点。3.5 结论与选型建议这张对比表直接告诉我们什么时候该选什么模型场景推荐理由本地开发测试1.5B启动快、不卡机、能验证链路是否通生产问答7B或更大质量明显更优用户愿意等2秒实时对话/嵌入式1.5B首token延迟低体感流畅批量数据处理7B单次质量优先当然这台机器的实际表现取决于你的CPUGPU、内存。后续我们在第5篇开始构建RAG核心时我会把Embedding模型也纳入类似对比让你对整个AI链路里每一步的模型选型都心里有数。3.6 常见问题Q8GB内存能跑7B吗能但跑起来后系统会频繁换页生成速度掉到个位数token/s。建议至少16GB。Q想用GPU加速怎么办Ollama检测到NVIDIA显卡会自动启用CUDA。如果是Mac M系列芯片会自动用Metal。使用ollama ps可以看当前模型是否在用GPU。Q模型下载太慢可以设置代理或使用国内镜像。另外有人会分享模型文件的离线包用ollama create从本地文件导入具体可查Ollama文档。本篇文章源码stage01_env/ollama_client.py— Ollama客户端封装stage01_env/model_benchmark.py— 模型选型对比脚本

相关文章:

搭建你的第一座“模型工厂”——5分钟部署开源大模型

用Ollama部署开源模型,整个过程不超过5分钟。但跑起来只是第一步——这篇还会带你做一件事:在同一台机器上部署两个不同尺寸的模型,跑同一组问题,填一份模型选型对比表。以后你做技术选型时,这一套方法直接复用。 3.1 …...

GPT Image 2 深度评测:当 AI 图像生成跨越“图灵测试”,它如何重塑开发者工作流?

文章目录前言一、 范式革命:从“扩散猜谜”到“自回归推理”1.1 传统扩散模型的局限1.2 GPT Image 2 的自回归突破二、 横向评测:GPT Image 2 vs Midjourney v7 vs DALL-E 32.1 文字渲染:翻越“图灵文字测试”2.2 思维链加持:从“…...

大语言模型幻觉检测:NTK理论与工程实践

1. 项目背景与核心挑战大语言模型(LLM)的"幻觉"问题已经成为当前AI领域最棘手的挑战之一。所谓幻觉,指的是模型生成看似合理但实际上与事实不符的内容。这种现象在医疗诊断、法律咨询、金融分析等高风险场景中可能造成严重后果。传…...

Python Selenium领英数据爬虫实战:从环境部署到反爬策略

1. 项目概述与核心价值最近在帮一个做人才市场分析的朋友处理数据,他需要定期从领英上抓取特定行业、特定职位的公开信息来做趋势研究。手动收集?效率太低。直接买数据?成本太高且不一定精准。于是,我们开始寻找一个靠谱的自动化工…...

体验Taotoken多模型聚合调用的低延迟与高稳定性

体验 Taotoken 多模型聚合调用的稳定性与响应表现 1. 多模型调用的实际观测 在持续一周的测试周期中,我们通过 Taotoken 平台调用了包括 Claude、GPT 等在内的多个主流模型。测试覆盖了不同时段(包括工作日高峰和周末低谷),以观…...

小朱学习c语言

大家好,我叫bottle-coconut,为什么叫这个名字呢?是因为有一年的夏天,我去了广东深圳的世界之窗,看到了一种从未见过的模样可爱且胖乎乎的椰子树,于是上网查了一下因形似酒瓶而得名酒瓶椰。回到后,我就把好几…...

豆包写的1万字生物论文维普AI率95.7%,用率零8分钟降到3.7%!

很多同学问"维普和万方场景下的降 AI 工具应该怎么选"——这背后是一个被低估的需求场景。 知网是国内最主流的 AIGC 检测平台,但维普和万方使用率仅次于知网——部分学校(特别是部分地方高校、专业类院校)把维普或万方作为官方系…...

借助 Taotoken 多模型聚合能力为你的智能体应用选择最佳模型

借助 Taotoken 多模型聚合能力为你的智能体应用选择最佳模型 1. 智能体应用中的模型选型挑战 在构建基于大模型的智能体应用时,开发者往往面临模型选型的复杂决策。不同厂商提供的模型在能力、价格和适用场景上存在显著差异,而单一模型通常难以满足应用…...

GUI自动化测试中的显式坐标映射技术解析

1. 项目背景与核心挑战在自动化测试和机器人操作领域,GUI元素的精确定位一直是个令人头疼的问题。传统基于图像识别的定位方式就像用一把刻度模糊的尺子测量物体——当屏幕分辨率、缩放比例或主题样式发生变化时,定位精度就会像沙漏里的沙子一样不断流失…...

Vivado时序违例别硬等!手把手教你用Tcl脚本在编译中途就揪出问题根源

Vivado时序调试实战:用Tcl脚本在编译中途精准狙击违例问题 FPGA设计中最令人沮丧的体验莫过于:你按下编译按钮,泡了杯咖啡,刷了半小时手机,回来发现时序违例——然后一切又得重来。传统工作流让我们沦为编译进度的被动…...

规则引擎在LLM与RAG系统中的核心价值与应用

1. 规则引擎在LLM与RAG系统中的核心价值规则引擎作为知识表示与推理的基础设施,其核心价值在于将业务逻辑从硬编码中解耦。在LLM(大语言模型)和RAG(检索增强生成)系统中,这种解耦带来的优势尤为明显。传统系…...

别再为The Forest服务器发愁!用Screen在Linux后台一键托管,附完整自动化脚本与状态监控教程

Linux下The Forest服务器高效运维指南:从持久化托管到智能监控 引言 对于热爱The Forest的玩家来说,搭建专属服务器只是第一步。真正的挑战在于如何让服务器稳定运行、易于管理,同时又能随时掌握运行状态。想象一下,当你和朋友约好…...

练习第18天

题目链接:https://leetcode.cn/problems/valid-parentheses/ 视频讲解:https://www.bilibili.com/video/BV1AF411w78gchar pairs(char a) {if (a }) return {;if (a ]) return [;if (a )) return (;return 0; }bool isValid(char* s) {int n strlen(…...

避开NVMe驱动开发的那些‘坑’:PRP List配置不当引发的数据覆盖与性能抖动

NVMe驱动开发实战:PRP List配置的五大陷阱与调试技巧 在NVMe驱动开发过程中,PRP(Physical Region Page)机制作为主机与SSD之间数据传输的核心桥梁,其正确配置直接关系到数据完整性和性能表现。许多开发者在初次接触PRP…...

“十五五”气象发展规划:聚焦五大核心任务

一、总体目标 到2030年,我国气象领域力争在关键科技领域取得重要突破,气象科技、预报、监测达到同期世界先进水平,极端天气应对能力显著提升,气象服务实现世界领先,我国成为全球气象治理重要力量。 二、五大核心任务…...

手把手教你修改RK3588的DTS,给CPU/GPU/NPU超频或降频(附完整配置流程)

RK3588硬件调频实战:从DTS修改到性能优化的完整指南 在嵌入式开发领域,性能调优一直是开发者关注的焦点。RK3588作为Rockchip旗下的旗舰级SoC,凭借其强大的CPU/GPU/NPU异构计算能力,在边缘计算、AI推理和多媒体处理等领域大放异彩…...

苹果印度生产线直接停摆,离了中国工程师玩不转

4 月 22 日传出苹果或被罚 380 亿美元的消息刚没过多久,「苹果印度生产线陷入停摆」在今天冲上热搜,给一直鼓吹产业链外迁的论调狠狠泼了一盆冷水。事件起因很简单:2026 年春节期间,驻守印度工厂的中国工程师、管理团队正常返乡休…...

Windows 11任务管理器隐藏技能:教你查看进程的“分页”与“非分页”内存占用

Windows 11任务管理器隐藏技能:深度解析进程内存占用 每次电脑卡顿得像老牛拉破车时,大多数人只会机械地打开任务管理器,盯着CPU和内存百分比发呆。但你知道吗?Windows 11的任务管理器里藏着一把瑞士军刀——它能让你看到更精细的…...

Ollamac本地AI对话伴侣:隐私优先的图形化大模型部署指南

1. 项目概述:一个本地化的AI对话伴侣如果你和我一样,对大型语言模型(LLM)的能力着迷,但又对将个人对话、思考甚至代码片段上传到云端服务心存顾虑,那么你肯定在寻找一个完美的本地化解决方案。kevinhermawa…...

hadoop集群设置为什么从节点ping的通主节点,主节点ping不通从节点

...

从零构建现代化CLI工具:设计理念、核心模块与Node.js实战

1. 项目概述:一个面向开发者的现代化命令行工具集最近在整理自己的开发工具箱时,发现很多重复性的脚手架搭建、项目初始化、代码片段管理操作,依然需要手动复制粘贴或者依赖一堆零散的脚本。这让我想起了几年前接触过的一个概念——“基础设施…...

Cache缓存项目学习2

项目架构缓存服务器设计ETCD使用:当Server实例初始化时建立ETCD客户端,当server启动时,进行服务注册。当服务器实例化peeker时,进行服务发现,服务发现分为全量发现与增量发现。增量更新维持一个watch goroutine&#x…...

2026.4.30总结

明天五一假期,我和一位同事决定自驾游。回想过去一个人游宜昌,结果啥攻略也没有的经历,我决定吸取此次的教训。游玩时间:2026.5.1~2026.5.42026.5.1 第一站:咸宁(5.1多云或阴天)10:00起床 武汉-咸宁&#x…...

【算法刷题日记】LeetCode 227 基本计算器 II|栈处理运算优先级 C 语言

刷题日期:2026.5.3 题目:227. 基本计算器 II 难度:中等 语言:C 语言 优秀题解:https://leetcode.cn/problems/basic-calculator-ii/solutions/91271/chai-jie-fu-za-wen-ti-shi-xian-yi-ge-wan-zheng-ji-/ 一、…...

axios 的 GET 请求里,手动写 Content-Type: application/json 基本都会被删掉不是你写法错了是 axios 源码故意这么做的

一、为什么 GET 的 Content-Type 会被删掉看 axios 源码(xhr.js)里的逻辑:if (typeof requestData undefined && key.toLowerCase() content-type) {// Remove Content-Type if data is undefineddelete requestHeaders[key]; }GET…...

【flutter for open harmony】第三方库Flutter 鸿蒙版 底部导航栏 实战指南(适配 1.0.0)✨

【flutter for open harmony】第三方库Flutter 鸿蒙版 底部导航栏 实战指南(适配 1.0.0)✨ Flutter 三方库 cached_network_image 的鸿蒙化适配与实战指南 欢迎加入开源鸿蒙跨平台社区: https://openharmonycrossplatform.csdn.net本文详细介…...

ARM浮点运算指令FMINP与FMLA详解及优化实践

1. ARM浮点运算指令概述在ARM架构中,浮点运算指令是高性能计算的核心组成部分。作为现代处理器架构的重要特性,ARM的浮点运算指令集通过SIMD(单指令多数据)技术实现了高效的并行计算能力。特别是在机器学习、科学计算和图形处理等…...

OBS多路推流插件下载安装教程:OBS如何多平台直播?OBS如何多开直播?

OBS多路推流插件下载安装教程:OBS如何多平台直播?OBS如何多开直播? 具体如何下载?如何安装?如何使用?我写了一个保姆级教程,请往下看,步骤很详细的,你一定看得懂 第一步…...

YOLO11语义分割注意力机制改进:全网首发--使用MLCA增强主干高层局部与全局通道建模(方案2)

1. 工程简介 🚀 本工程基于 Ultralytics 框架扩展,面向语义分割与 YOLO 系列模型改进实验。核心优势不是只支持单一模型,而是支持通过切换 yaml 配置文件,快速完成不同网络结构的训练、验证与对比实验。 当前已支持的主要模型家族 🧩 语义分割模型:UNet、UNet++、Dee…...

ICCV 2017的DeepFuse还值得学吗?深入拆解它的无监督思路与今天的技术演进

DeepFuse在2023年的技术价值:从无监督融合鼻祖到现代架构的启示录 当你在GitHub上搜索"image fusion"时,会发现超过2000个相关仓库,其中三分之一引用了DeepFuse的融合策略。这个2017年提出的架构,如今依然活跃在各类图像…...