当前位置: 首页 > article >正文

Vllm快速入门

背景vLLM 是一个用于 LLM 推理和服务的快速易用的库。vLLM 最初是在加州大学伯克利分校的 Sky Computing Lab 开发的现已发展成为一个社区驱动的项目融合了学术界和工业界的贡献。核心细节参考官网https://docs.vllm.com.cn/en/latest/快速入门这里仅仅介绍cuda其他显卡请参考官网uv venv --python 3.12 --seed source .venv/bin/activate uv pip install vllm --torch-backendauto离线批量推理# SPDX-License-Identifier: Apache-2.0 # SPDX-FileCopyrightText: Copyright contributors to the vLLM project from vllm import LLM, SamplingParams # Sample prompts. prompts [ Hello, my name is, The president of the United States is, The capital of France is, The future of AI is, ] # Create a sampling params object. sampling_params SamplingParams(temperature0.8, top_p0.95) def main(): # Create an LLM. llm LLM(modelfacebook/opt-125m) # Generate texts from the prompts. # The output is a list of RequestOutput objects # that contain the prompt, generated text, and other information. outputs llm.generate(prompts, sampling_params) # Print the outputs. print(\nGenerated Outputs:\n - * 60) for output in outputs: prompt output.prompt generated_text output.outputs[0].text print(fPrompt: {prompt!r}) print(fOutput: {generated_text!r}) print(- * 60) if __name__ __main__: main()采样温度 设置为0.8 nucleus sampling 概率 设置为0.95分别控制着“抽奖的随机程度”和“候选词的范围”。兼容 OpenAI 的服务器from vllm import LLM llm LLM(modelmeta-llama/Meta-Llama-3-8B-Instruct) conversation [ { role: system, content: You are a helpful assistant, }, { role: user, content: Hello, }, { role: assistant, content: Hello! How can I assist you today?, }, { role: user, content: Write an essay about the importance of higher education., }, ] outputs llm.chat(conversation) for output in outputs: prompt output.prompt generated_text output.outputs[0].text print(fPrompt: {prompt!r}, Generated text: {generated_text!r})如果模型没有聊天模板或您想指定另一个您可以显式地传递一个聊天模板。from vllm.entrypoints.chat_utils import load_chat_template # You can find a list of existing chat templates under examples/ custom_template load_chat_template(chat_templatepath_to_template) print(Loaded chat template:, custom_template) outputs llm.chat(conversation, chat_templatecustom_template)Ray Serve LLM¶Ray Serve LLM 实现了 vLLM 引擎的可扩展、生产级服务。它与 vLLM 紧密集成并增加了自动扩展、负载均衡和反压等功能。主要功能提供与 OpenAI 兼容的 HTTP API 和 Pythonic API。可从单个 GPU 扩展到多节点集群无需更改代码。通过 Ray Dashboard 和指标提供可观测性和自动扩展策略。以下示例展示了如何使用 Ray Serve LLM 部署 DeepSeek R1 等大型模型 examples/online_serving/ray_serve_deepseek.py。通过官方 Ray Serve LLM 文档 了解更多关于 Ray Serve LLM 的信息。

相关文章:

Vllm快速入门

背景 vLLM 是一个用于 LLM 推理和服务的快速易用的库。 vLLM 最初是在加州大学伯克利分校的 Sky Computing Lab 开发的,现已发展成为一个社区驱动的项目,融合了学术界和工业界的贡献。 核心细节参考官网:https://docs.vllm.com.cn/en/late…...

Aurogen:告别命令行,纯 Web 可视化快速上手 Claw 养殖,零基础也能轻松配置 Claw

一、前言 前段时间我开始沉迷于 OpenClaw 养殖。随着装上的 Skills 越来越多,问题也慢慢暴露出来了:当短期记忆、海量 Skills 和各种系统指令被一起塞进 System Prompt 后,上下文长度迅速膨胀,结果就是 回复速度明显变慢逻辑偶尔…...

【京东云云服务器部署Openclaw】简单、傻瓜三步部署成功流程

【京东云服务器部署Openclaw】简单、傻瓜三步部署成功流程 前言 最近发现京东云有个超值活动——9块9就能买一个月的轻量云服务器,正好可以用来部署最近很火的OpenClaw AI助手。本文将详细记录从购买服务器到成功运行OpenClaw的完整过程,希望对大家有所帮…...

Linux系统密码破解

环境准备: 虚拟机:VMware Workstation 17,系统:Red Hat,配置:16GB内存/8核处理器。通过登录界面修改root密码(已知旧密码): 1. 在登录界面点击“未列出”或“其他” 2. 输…...

k8s问答题----初始化版

1.ca-certificates, gnupg, lsb-release 三个包的解释。答:ca-certificates 软件包提供常用的 SSL 证书,用于在 Linux 系统中进行安全的网络通信。 gnupg 软件包提供一系列用于保护数据安全的加密和解密的工具。 lsb-release 软件包包含了 Linux 发行版相…...

计科-软工13-计算实例「整理」

修改一个已有的库存清单系统,估计需要8000元,系统修改后使用5年。每年可节省3000元。请进行成本/效益分析,并计算投资回收期和纯收入(利率按12%计算)。假设某软件的生产性工作量是150人月,复杂程度指数是18…...

GTE中文-large惊艳效果展示:事件抽取+关系识别双任务高精度输出案例

GTE中文-large惊艳效果展示:事件抽取关系识别双任务高精度输出案例 安全声明:本文仅展示技术效果与应用案例,所有示例内容均为技术演示用途,不涉及任何真实数据或敏感信息。 1. 多任务NLP模型的强大能力 GTE文本向量-中文-通用领…...

鸿蒙智能WiFi开关硬件与分布式控制实现

1. 项目概述鸿蒙智能WiFi开关是一套面向家庭与宿舍场景的嵌入式物联网终端设备,其核心功能是通过Wi-Fi网络实现对交流负载(如照明灯具、风扇、插座类电器)的远程通断控制,并支持本地物理按键操作与状态指示。该设备并非通用型智能…...

Qwen2-VL-2B-Instruct与卷积神经网络结合:提升图像特征提取与描述精度

Qwen2-VL-2B-Instruct与卷积神经网络结合:提升图像特征提取与描述精度 1. 引言 你有没有遇到过这样的情况?给一个AI模型看一张复杂的医学影像,比如CT扫描图,希望它能告诉你哪里可能有问题。结果它要么说得太笼统,要么…...

Phi-3-vision-128k-instruct效果展示:表格截图→结构化数据提取→趋势分析文字生成

Phi-3-vision-128k-instruct效果展示:表格截图→结构化数据提取→趋势分析文字生成 1. 模型简介 Phi-3-Vision-128K-Instruct是当前最先进的轻量级开放多模态模型,属于Phi-3模型家族。这个模型特别擅长处理图文对话任务,支持长达128K的上下…...

Phi-3-vision-128k-instruct入门必看:128K上下文多模态模型快速上手教程

Phi-3-vision-128k-instruct入门必看:128K上下文多模态模型快速上手教程 1. 认识Phi-3-vision-128k-instruct模型 Phi-3-Vision-128K-Instruct是微软推出的轻量级多模态模型,属于Phi-3系列的最新成员。这个模型最大的特点是支持128K的超长上下文窗口&a…...

Phi-3-vision-128k-instruct镜像免配置:Docker一键拉起+Chainlit前端自动对接

Phi-3-vision-128k-instruct镜像免配置:Docker一键拉起Chainlit前端自动对接 1. 模型简介 Phi-3-Vision-128K-Instruct是一个轻量级的多模态模型,支持图文对话功能。这个模型基于高质量的训练数据构建,特别擅长处理需要复杂推理的文本和视觉…...

亚洲美女-造相Z-Turbo效果对比:Z-Image-Turbo基模 vs LoRA微调版亚洲特征强化分析

亚洲美女-造相Z-Turbo效果对比:Z-Image-Turbo基模 vs LoRA微调版亚洲特征强化分析 1. 模型介绍与部署 亚洲美女-造相Z-Turbo是基于Z-Image-Turbo模型的LoRA微调版本,专门针对亚洲女性特征进行了优化训练。这个模型在保持原版Z-Image-Turbo强大文生图能…...

通义千问3-Reranker-0.6B优化电商产品评论分析

通义千问3-Reranker-0.6B优化电商产品评论分析 电商平台每天产生海量用户评论,如何从中快速提取有价值的信息,一直是商家和平台面临的挑战。传统方法往往只能做到简单的情感分析,难以深入理解评论背后的真实意图和细节反馈。 1. 电商评论分析…...

Face Analysis WebUI模型微调指南:定制化人脸识别系统开发

Face Analysis WebUI模型微调指南:定制化人脸识别系统开发 1. 引言 你是否遇到过这样的情况:使用现成的人脸识别系统时,发现它对特定人群的识别准确率不高?或者想要为你的业务场景定制一个专门的人脸识别模型,却不知…...

在线式UPS设计:双输入无感切换与数字模拟混合控制

1. 项目概述2020年全国大学生电子设计竞赛B题要求设计一款在线式不间断电源(UPS),核心指标为:双输入(220V AC市电与24V DC储能电池)、单路30V AC/1A正弦波输出、市电断电时实现无感切换、具备输出电压闭环调…...

BV电视版 0.3.14.r877 | 纯净好用的第三方B站TV,支持8K视频

BV是一款专为B站用户设计的第三方TV版应用,以其惊人的8K60帧画质和Hi-Res音质著称。无需任何复杂设置,即可直接畅享高品质视频体验。该应用界面简洁清爽,没有任何广告干扰,非常适合二次元爱好者使用。支持多种设备操作&#xff0c…...

酷9多线 1.7.7.8(内置35源) | 魔改版,内置35条直播源,频道非常丰富

酷9多线是一款适用于Android TV的电视直播空壳软件,该版本已经内置直播源。该软件适配VLC播放器内核,支持自定义添加频道列表,适合有自主配置直播源需求的用户。目前软件已内置部分直播源,对于网页直播,用户可按需求导…...

USRP设备选型指南:为什么你的MATLAB总是检测不到B210/N310?(含UHD驱动优化方案)

USRP设备选型与MATLAB连接深度优化指南 当实验室的示波器突然停止响应,或是仿真结果出现不明噪点时,射频工程师的第一反应往往是检查USRP设备连接状态。这种条件反射般的动作背后,隐藏着一个被广泛低估的技术痛点——USRP与MATLAB的通信稳定性…...

一文搞懂接口幂等性:从原理到工程实践(含唯一索引详解)

一、什么是幂等性? 在后端开发中,幂等性(Idempotency) 是一个非常核心的概念。定义:同一个请求执行一次和执行多次,结果是一样的。 白话来讲,我本来只想提交一次,奈何用户手抖或者网…...

Dify Rerank插件一键部署教程:从零下载、5步安装、实测QPS提升2.3倍的完整链路

第一章:Dify Rerank插件一键部署教程:从零下载、5步安装、实测QPS提升2.3倍的完整链路前置依赖检查 确保目标服务器已安装 Python 3.10、Git 和 Docker 24.0.0。执行以下命令验证环境就绪: # 检查核心组件版本 python3 --version && …...

内网安全部署方案:Qwen3-VL:30B在内网穿透环境下的加密通信实现

内网安全部署方案:Qwen3-VL:30B在隔离环境中的安全服务实践 1. 为什么需要内网隔离部署 很多团队在尝试大模型应用时,最先遇到的不是技术问题,而是安全合规的门槛。当业务涉及客户数据、内部文档或敏感图像时,把模型服务直接暴露…...

Docker 27正式版工业部署实战指南:从CI/CD流水线到OT网络隔离的7大关键配置

第一章:Docker 27工业部署的演进逻辑与核心变革Docker 27并非官方版本号(Docker CE 最新稳定版为 26.x 系列),但“Docker 27”在工业界已成为一种隐喻性代称——特指以 Docker Engine v24.0 为基底、深度整合 BuildKit、Rootless …...

Nano-Banana与SolidWorks结合:智能CAD设计

Nano-Banana与SolidWorks结合:智能CAD设计 1. 引言 在机械工程和产品设计领域,设计师们经常面临一个共同挑战:如何快速将创意概念转化为精确的CAD模型?传统设计流程中,从概念草图到三维建模往往需要耗费大量时间和精…...

Qwen3-4B-Thinking模型数据库课程设计助手:SQL优化与ER图生成

Qwen3-4B-Thinking模型数据库课程设计助手:SQL优化与ER图生成 1. 引言:数据库课程设计的“拦路虎” 如果你正在为数据库课程设计发愁,这篇文章可能就是为你准备的。很多计算机专业的学生,包括当年的我,都经历过这个阶…...

妙算MANIFOLD 2-G实战:用Ubuntu18.04双系统快速搭建机器人开发环境

妙算MANIFOLD 2-G开发环境实战:从双系统配置到机器人开发全流程 在RoboMaster等机器人赛事中,稳定高效的开发环境往往决定了算法调试的效率上限。作为DJI专为Onboard SDK设计的第二代微型计算机,MANIFOLD 2-G凭借NVIDIA Jetson TX2模块的强悍…...

WSL2+内网穿透:5分钟搞定远程SSH开发环境(避坑指南)

WSL2远程开发实战:5分钟构建高效SSH工作流 对于现代开发者而言,能够随时随地在熟悉的环境中编码已成为刚需。想象一下这样的场景:你在咖啡馆用平板电脑突发灵感,需要立即调试服务器代码;或是出差途中发现线上问题&…...

Windows计划任务终极指南:从schtasks命令到taskschd.msc的完整实战手册

Windows计划任务终极指南:从schtasks命令到taskschd.msc的完整实战手册 对于系统管理员和运维工程师而言,计划任务是实现自动化运维的核心工具。无论是日常的日志清理、定期备份,还是复杂的批处理作业调度,Windows计划任务都能提供…...

为什么你的电脑需要14.318MHz晶振?揭秘主板时钟频率的冷知识

为什么你的电脑需要14.318MHz晶振?揭秘主板时钟频率的冷知识 当你拆开一台电脑主板,仔细观察那些微小的电子元件时,可能会发现一个标有"14.318MHz"的晶振。这个看似普通的数字背后,隐藏着计算机发展史上最有趣的工程妥协…...

Phi-3-vision-128k-instruct实战落地:跨境电商多语言商品图理解与翻译辅助

Phi-3-vision-128k-instruct实战落地:跨境电商多语言商品图理解与翻译辅助 1. 模型简介与核心能力 Phi-3-Vision-128K-Instruct是微软推出的轻量级多模态模型,专为处理图文交互任务而设计。这个模型最突出的特点是支持128K的超长上下文窗口&#xff0c…...