当前位置: 首页 > article >正文

本地部署千问大模型

下载千问大模型大家可以从魔搭社区平台下载各种版本的各种大模型尽量能在自己的电脑上运行所以这边下载1.5B的版本下载后的文件夹里的东西不要动即可环境准备在开始之前先统一环境。本文基于transformersPyTorch支持 CPU/GPU模型使用Qwen 系列本地模型情感分类只输出正面 / 负面 / 中立from transformers import AutoModelForCausalLM, AutoTokenizer import torch # 本地模型路径 model_name rE:\学习\大模型\qwen device cuda if torch.cuda.is_available() else cpu # 加载分词器与模型 tokenizer AutoTokenizer.from_pretrained(model_name, trust_remote_codeTrue) model AutoModelForCausalLM.from_pretrained( model_name, torch_dtypeauto, device_mapauto, trust_remote_codeTrue ).to(device) # 固定模板强制模型只输出结果 prompt_template 请仅输出以下文本的情感类别正面/负面/中立{text} input_text 这部电影真是太差劲我非常不喜欢 prompt_input prompt_template.format(textinput_text) # 编码输入 inputs tokenizer(prompt_input, return_tensorspt).to(device) # 生成配置确定性、短文本、无采样 output_sequences model.generate( inputs.input_ids, attention_maskinputs.attention_mask, max_new_tokens2, # 只生成1-2个字 do_sampleFalse, # 关闭采样 temperature0.0, # 完全确定性输出 pad_token_idtokenizer.eos_token_id ) # 解码并只提取新增结果 generated_text tokenizer.decode(output_sequences[0], skip_special_tokensTrue) result generated_text[len(prompt_input):].strip() print(情感分类结果, result) # 输出负面max_new_tokens2严格限制输出长度避免多余文字temperature0.0温度为 0保证每次输出一致固定 prompt明确告诉模型输出格式多轮对话模型能记住上下文Qwen 有官方对话模板不按格式写模型完全记不住上下文。正确方式使用apply_chat_template按role content组织对话。from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_name_or_path rE:\学习\大模型\qwen tokenizer AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_codeTrue) model AutoModelForCausalLM.from_pretrained( model_name_or_path, torch_dtypeauto, device_mapauto, trust_remote_codeTrue ) # 历史对话必须是 role content 格式 history [ {role: user, content: 你好请问今天天气怎么样}, {role: assistant, content: 今天是晴天气温20到25度。}, {role: user, content: 那明天呢}, {role: assistant, content: 明天是晴天气温22到25度。}, {role: user, content: 那后天的天气呢} ] prompt tokenizer.apply_chat_template( history, tokenizeFalse, add_generation_promptTrue ) inputs tokenizer(prompt, return_tensorspt).to(model.device) output_sequences model.generate( inputs.input_ids, attention_maskinputs.attention_mask, max_new_tokens30, temperature0.1, top_p0.9, pad_token_idtokenizer.eos_token_id, do_sampleFalse ) response tokenizer.decode( output_sequences[0][len(inputs.input_ids[0]):], skip_special_tokensTrue ) print(模型回答, response)response tokenizer.decode(output_sequences[0][len(inputs.input_ids[0]):],skip_special_tokensTrue这个代码表示只解码新增内容这样就不会输出多余信息连续传入信息from transformers import AutoModelForCausalLM, AutoTokenizer model_name rE:\学习\大模型\qwen model AutoModelForCausalLM.from_pretrained(model_name) tokenizer AutoTokenizer.from_pretrained(model_name) conversation_history [] while True: user_input input(你: ) if user_input.lower() in [quit, exit]:# break # 将用户输入添加到对话历史 conversation_history.append(user_input) # 构建完整的输入文本 full_input_text \n.join(conversation_history) # 对输入文本进行编码 input_ids tokenizer(full_input_text, return_tensorspt) # 生成回答 output model.generate(input_ids.input_ids, max_length1000, attention_maskinput_ids.attention_mask) answer tokenizer.decode(output[0], skip_special_tokensTrue) # 提取回答中本次新增的部分 new_answer answer[len(full_input_text):] print(Qwen-2.5:, new_answer) # 将回答添加到对话历史 conversation_history.append(new_answer)信息抽取import json from rich import print from transformers import AutoTokenizer, AutoModelForCausalLM import torch # 定义抽取实体与属性 schema {商品: [产品, 品牌, 特点, 原价, 促销价, 销量], } IE_PATTERN {}\n\n提取上述句子中{}的实体并按照JSON格式输出不存在的信息用[原文中未提及]表示多值用,分隔。 # 少样本示例 ie_examples { 商品: [{ content: 2024 新款时尚运动鞋品牌 JKL舒适透气原价 599 元促销价 499 元月销量 2000 双。, answers: { 产品: [时尚运动鞋], 品牌: [JKL], 特点: [舒适透气], 原价: [599元], 促销价: [499元], 销量: [2000双], } }] } # 初始化prompt历史 def init_prompts(): ie_pre_history [ (你需要完成信息抽取输出严格JSON不存在填[原文中未提及]。, 好的请输入。) ] for _type, example_list in ie_examples.items(): for example in example_list: sentence example[content] prop_str , .join(schema[_type]) prompt_sent IE_PATTERN.format(sentence, f{_type}({prop_str})) ie_pre_history.append((prompt_sent, json.dumps(example[answers], ensure_asciiFalse))) return {ie_pre_history: ie_pre_history} # 按轮次拼接prompt def build_prompt(query, history): prompt for i, (q, a) in enumerate(history): prompt f[Round {i1}]\n问{q}\n答{a}\n\n prompt f[Round {len(history)1}]\n问{query}\n答 return prompt # 推理函数 def inference(sentences, custom_settings): for sent in sentences: prop_str , .join(schema[商品]) prompt_sent IE_PATTERN.format(sent, f商品({prop_str})) full_input build_prompt(prompt_sent, custom_settings[ie_pre_history]) inputs tokenizer(full_input, return_tensorspt).to(cuda) outputs model.generate(**inputs, max_new_tokens512, pad_token_idtokenizer.eos_token_id) res tokenizer.decode(outputs[0][len(inputs.input_ids[0]):], skip_special_tokensTrue) print(抽取结果\n, res) if __name__ __main__: model_path rE:\学习\大模型\qwen tokenizer AutoTokenizer.from_pretrained(model_path, trust_remote_codeTrue) model AutoModelForCausalLM.from_pretrained(model_path, trust_remote_codeTrue).cuda() model.eval() # 测试文本 test_sentences [ 2024 潮流双肩包品牌 PQR材质耐磨定价399元优惠后349元周销量800个。, 2024 智能手表品牌华为功能强大续航强售价1299元优惠价999元。 ] custom_settings init_prompts() inference(test_sentences, custom_settings)注意最后是以JSON格式输出

相关文章:

本地部署千问大模型

下载千问大模型大家可以从魔搭社区平台,下载各种版本的各种大模型,尽量能在自己的电脑上运行,所以这边下载1.5B的版本下载后的文件夹里的东西不要动即可环境准备在开始之前,先统一环境。本文基于transformersPyTorch,支…...

C# 基于OpenCv的视觉工作流-章34-投影向量

C# 基于OpenCv的视觉工作流-章34-投影向量 本章目标: 一、投影向量;一、 投影向量 投影向量分为行投影、列投影,原理是将各行/行像素值进行汇总统计。 本例中对汇总统计进行求取平均值,截取高出平均值的部分进行数量统计。 OpenCv…...

Using Vulkan -- Queues

应用程序通过 VkQueue 提交工作,通常以 VkCommandBuffer 对象或稀疏绑定的形式提交。 提交到同一个 VkQueue 的命令缓冲区按提交顺序开始执行,但开始后允许独立推进并乱序完成。 提交到不同队列的命令缓冲区彼此之间是无序的,除非使用 VkSe…...

无人机高空工程车辆识别 高清工程车辆识别 高清车辆识别 高清铲车压路机识别 无人机矿场行人识别 深度学习yolo第10558期

工程车辆识别计算机视觉数据集数据集概览 本数据集基于高空视角遥感影像构建,聚焦工程场景目标识别,为目标检测模型提供标准化标注样本,支撑工地监测与工程管理场景应用。项目内容类别数量4类类别名称汽车、人员、工程车1、工程车2图像数量50…...

MySQL的安装和卸载组件

目录安装组件:卸载MySQL的组件手动删除目录检查服务📝前言: 我们前面学习了如何安装MySQL,但如果有一些组件需要再安装或者是卸载,可以通过下面的方法执行这个是:MySQL安装和组件安装🔗 通过搜索…...

告别手动截图!Python+SCPI让示波器自动采集数据

在日常测试工作里,频繁手动操作示波器调节参数、截图、记录数据,不仅效率低下,还容易出现操作失误和数据遗漏。借助Python/Labview/C#SCPI指令实现远程自动化控制,就能让罗德示波器自动完成电压波形采集、界面截图与原始数据保存&…...

【力扣-42. 接雨水】Python笔记

题目回顾题目编号:42 题目名称:接雨水 题目难度:困难 输入示例:height [0,1,0,2,1,0,1,3,2,1] 输出示例:6给定 n 个非负整数表示每个宽度为 1 的柱子的高度图,计算按此排列的柱子,下雨之后能接…...

鸿蒙中 应用的权限:申请授权(三)

本文同步发表于我的微信公众号,微信搜索 程语新视界 即可关注,每个工作日都有文章更新 鸿蒙应用开发中,当应用需要访问用户的隐私信息或使用系统能力时(如获取位置、使用相机、访问日历等),必须向用户申请授…...

私有知识库问答合规失效真相:当Dify RAG遇上《金融消费者权益保护实施办法》,这2类元数据缺失=自动违规

第一章:私有知识库问答合规失效真相:当Dify RAG遇上《金融消费者权益保护实施办法》,这2类元数据缺失自动违规在金融行业部署基于 Dify 的 RAG(检索增强生成)系统时,仅保障答案准确性和响应速度远不足以满足…...

环境变量解密:从基础概念到云原生实践

1. 环境变量基础:从图书馆到代码世界 第一次听说环境变量时,我正坐在大学图书馆里啃着C语言教材。管理员突然广播:"考试周期间,每人限借3本书,借期缩短为15天。"看着同学们手忙脚乱地归还超额书籍&#xff0…...

遗传算法实战:从编码到优化的全流程解析

1. 初识遗传算法:从“适者生存”到代码实现 如果你玩过《文明》这类策略游戏,肯定对“迭代”和“进化”不陌生。你开局只有几个农民,通过不断探索、发展科技、调整策略,最终建立起强大的帝国。遗传算法的核心思想,和这…...

零基础玩转LobeChat:一键部署开源聊天机器人,支持语音和多模态

零基础玩转LobeChat:一键部署开源聊天机器人,支持语音和多模态 想不想拥有一个完全属于自己的智能聊天助手?它界面漂亮,反应迅速,不仅能像ChatGPT一样和你聊天,还能听懂你的语音,看懂你上传的图…...

文墨共鸣模型深度解析:卷积神经网络在文本特征提取中的角色

文墨共鸣模型深度解析:卷积神经网络在文本特征提取中的角色 最近在和一些朋友交流时,发现一个挺有意思的现象。大家一提到像文墨共鸣这类基于Transformer架构的大模型,注意力机制(Self-Attention)总是当之无愧的明星。…...

从勒索病毒到流量分析:一次完整的Solar应急响应实战复盘

1. 勒索病毒入侵的初始迹象 那天早上刚到公司,财务部同事就火急火燎地跑过来:"所有文件都打不开了!"我赶到现场一看,电脑卡得连任务管理器都要等十几秒才能弹出来。仔细检查发现CPU被一个陌生进程占满,所有文…...

智慧校园管理系统平台选型指南:如何评估未来 3-5 年扩展性

✅作者简介:合肥自友科技 📌核心产品:智慧校园平台(包括教工管理、学工管理、教务管理、考务管理、后勤管理、德育管理、资产管理、公寓管理、实习管理、就业管理、离校管理、科研平台、档案管理、学生平台等26个子平台) 。公司所有人员均有多…...

Message Pack 协议深度解析与实战指南

1. Message Pack协议的前世今生 第一次接触Message Pack是在2013年做游戏服务器开发时。当时我们的实时对战游戏遇到了严重的网络带宽瓶颈,JSON序列化后的玩家状态数据太大,导致同步延迟明显。尝试了各种优化方案后,同事推荐了这个来自日本的…...

Colab免费GPU+Unsloth:快速微调大模型,打造专属智能助手

Colab免费GPUUnsloth:快速微调大模型,打造专属智能助手 1. 引言 1.1 为什么选择Colab和Unsloth? 大型语言模型(LLM)如Llama、Mistral等在通用任务上表现出色,但要让它们适应特定领域(如医疗问答、法律咨询等),就需要…...

低代码≠低安全,Dify集成必须做的4项合规检查,错过将面临等保2.0一票否决!

第一章:低代码≠低安全:Dify集成中的认知误区与合规警醒在企业级AI应用快速落地的背景下,Dify作为主流低代码LLM应用开发平台,常被误读为“安全责任弱化”的代名词。事实上,低代码仅降低开发门槛,绝不稀释安…...

企业安全必看:如何检测和修复深信服NGAF防火墙文件读取漏洞

企业级防火墙安全实战:NGAF文件读取漏洞深度防御指南 在数字化转型浪潮中,防火墙作为企业网络安全的第一道防线,其安全性直接关系到核心业务系统的稳定运行。近期曝光的某主流防火墙文件读取漏洞,再次为企业安全团队敲响警钟——即…...

Granite-4.0-H-350M部署实战:Windows 11系统环境配置

Granite-4.0-H-350M部署实战:Windows 11系统环境配置 1. 为什么选择Granite-4.0-H-350M在Windows上运行 最近试用Granite-4.0-H-350M时,最直观的感受是它在普通Windows笔记本上跑得特别顺。不像一些大模型需要高端显卡和大量内存,这个350M参…...

解决OpenWRT在M93p上的Intel I217-LM网卡硬件挂起问题:驱动更新与offload关闭实战

1. 问题现象与初步诊断 最近在Lenovo M93p上部署OpenWRT时,遇到了一个让人头疼的问题——系统日志中频繁出现"Detected Hardware Unit Hang"的错误提示。这台设备使用的是Intel I217-LM网卡,在负载较高时会出现网络连接中断的情况。通过ethtoo…...

C++ 核心概念全景解析+实战思维导图

1. C知识体系全景图 第一次接触C时,我被它庞大的知识体系震撼到了。记得当时看着厚厚的《C Primer》,感觉像面对一座高不可攀的山峰。但后来我发现,只要掌握了核心脉络,C其实并没有想象中那么可怕。 C的知识体系可以形象地比作一座…...

【图文讲解】Excel如何筛选重复项?四种简单有效的筛选重复项方法

一、问题背景在用Excel整理数据时,碰到重复数据内容不仅让表格看着乱糟糟的,还容易搞乱数据统计、核算的结果,像学生成绩表里重复的分数、员工信息表里重复的姓名,都得筛选出来处理。其实筛选重复项一点都不难,掌握几个…...

Clawdbot汉化版快速部署:Docker Compose一键启停+多实例隔离(微信/WhatsApp分环境)

Clawdbot汉化版快速部署:Docker Compose一键启停多实例隔离(微信/WhatsApp分环境) 1. 项目概述 Clawdbot汉化版是一个可以在微信、WhatsApp、Telegram等社交平台中使用的智能对话助手。它让你能够在熟悉的聊天软件中直接与AI对话&#xff0…...

华为路由器实战:OSPF NSSA区域配置避坑指南(附完整拓扑实验)

华为路由器实战:OSPF NSSA区域配置避坑指南(附完整拓扑实验) 在大型企业或服务提供商网络的设计与运维中,OSPF作为核心的IGP协议,其区域化设计是控制路由信息泛洪、优化设备性能的关键。对于许多从理论走向实践的工程师…...

RK3588路由器实战:如何用netplan+hostapd搭建稳定无线AP(避坑指南)

RK3588路由器实战:从零构建高性能无线AP的完整指南 在智能家居和物联网设备爆发的时代,拥有一台可完全自定义的路由器变得越来越重要。RK3588作为一款高性能ARM处理器,凭借其出色的网络处理能力和低功耗特性,成为DIY路由器的理想选…...

RustFS性能调优实战:5个生产环境必改参数让你的存储集群起飞

RustFS性能调优实战:5个生产环境必改参数让你的存储集群起飞 当你的存储集群在业务高峰期出现响应延迟飙升、吞吐量骤降时,作为运维负责人的你是否经历过这样的噩梦?去年双十一大促前,某电商平台就遭遇了这样的危机——他们的Rust…...

从零到一:在云服务器上构建你的专属Audiobookshelf有声图书馆

1. 为什么你需要一个专属的有声图书馆? 不知道你有没有这样的困扰:手机里存了几十部有声书和播客,每次想听的时候都要翻半天;不同平台的会员换来换去,收藏列表散落在五六个APP里;最头疼的是有些小众资源&am…...

Xinference惊艳效果:同一WebUI界面切换Qwen3-32B、GLM4-9B、Phi-3-mini对比演示

Xinference惊艳效果:同一WebUI界面切换Qwen3-32B、GLM4-9B、Phi-3-mini对比演示 注意:本文所有演示基于Xinference v1.17.1版本,不同版本可能存在细微差异 1. 为什么需要多模型切换能力? 在日常的AI应用开发中,我们经…...

毕业设计Java实战:从零构建高内聚低耦合的Spring Boot项目架构

作为一名即将毕业的计算机专业学生,我深知完成一个高质量的毕业设计是多么重要,它不仅关乎最后的答辩成绩,更是对自己四年学习成果的一次综合检验。然而,现实往往是:项目结构混乱得像一团乱麻,业务逻辑东一…...