当前位置: 首页 > article >正文

Phi-3-mini-128k-instruct实战:使用Qt开发跨平台AI桌面应用

Phi-3-mini-128k-instruct实战使用Qt开发跨平台AI桌面应用最近在捣鼓一些本地AI应用发现很多开发者朋友对如何把大模型塞进自己的桌面程序里很感兴趣。特别是用C和Qt的总觉得这块门槛有点高。其实没那么复杂我今天就用微软开源的Phi-3-mini-128k-instruct模型带大家走一遍完整的流程。Phi-3-mini是个轻量级但能力不错的模型128k的上下文也够应付很多场景了。咱们的目标很明确不用管复杂的模型推理框架直接通过HTTP调用本地的模型服务用Qt快速搭一个带界面的聊天工具出来。最后还能打包成独立应用在Windows、Linux或者macOS上都能直接运行。如果你会一点C和Qt基础跟着做下来一两个小时就能看到效果。整个过程就像给现有的模型服务套个壳重点是Qt这边怎么去调用和展示。1. 先让模型服务跑起来在写Qt代码之前咱们得先有个能对话的模型服务。这里假设你已经按照Phi-3-mini的官方说明用类似Ollama、LM Studio或者vLLM这样的工具把模型部署好了。我以Ollama为例因为它比较简单。打开你的终端输入下面这条命令拉取并运行模型ollama run phi3:mini-128k-instruct第一次运行会下载模型需要点时间。跑起来之后你应该能看到终端提示模型已经加载成功并进入一个交互式对话界面。先别急着在这里聊天咱们需要的是它的API服务。Ollama默认会在http://localhost:11434提供一个HTTP API。为了验证服务是否正常我们可以用curl快速测试一下curl http://localhost:11434/api/generate -d { model: phi3:mini-128k-instruct, prompt: 你好请介绍一下你自己。, stream: false }如果返回了一段包含模型回复的JSON数据比如{response: 你好我是Phi-3-mini...}那就说明一切就绪模型服务在本地11434端口上等着被调用呢。这一步的关键是确保这个服务进程一直开着我们的Qt程序才能找到它。你可以把它放在后台运行或者单独开一个终端窗口挂着。2. 搭建Qt项目的基本框架接下来打开你的Qt Creator我们来创建一个新项目。选择Qt Widgets Application给项目起个名字比如Phi3DesktopAssistant。在选择组件的页面记得勾选上Network模块这个待会儿用来发HTTP请求必不可少。项目创建好后你会看到主窗口类通常是MainWindow的文件。我们先来设计一个最简单的界面。打开mainwindow.ui文件从左侧的部件盒子里拖拽以下控件到窗体上一个QTextEdit放在上面作为我们输入问题Prompt的区域。可以把它的placeholderText属性设为“在这里输入你的问题...”。一个QPushButton放在输入框右边或下面文本改成“发送”或者“提问”。点击它就会触发请求。另一个QTextEdit放在界面下方用来显示模型的回复。把它的readOnly属性勾选上因为这只是用来展示结果的。一个QLabel可以放在最下面用来显示一些状态信息比如“正在思考...”或“就绪”。排布差不多后记得用布局管理器比如垂直布局Vertical Layout把控件组织一下这样窗口缩放时界面不会乱。一个简单的设计草图是这样的上面是输入框和按钮中间是回复展示区最下面是状态栏。界面设计好之后我们需要为“发送”按钮添加点击事件的响应。在Qt Creator里右键点击按钮选择“转到槽...”然后选中clicked()信号。这会在mainwindow.cpp里自动生成一个槽函数比如on_pushButton_clicked()。我们主要的逻辑就会写在这里。3. 编写核心的网络请求逻辑模型服务和界面都有了现在要把它们连起来。核心就是用Qt的网络模块向http://localhost:11434/api/generate发送一个POST请求并把输入框的文本传过去。首先在mainwindow.h文件里包含必要的头文件并声明网络管理器和一些必要的槽函数#include QMainWindow #include QNetworkAccessManager #include QNetworkReply namespace Ui { class MainWindow; } class MainWindow : public QMainWindow { Q_OBJECT public: explicit MainWindow(QWidget *parent nullptr); ~MainWindow(); private slots: void on_pushButton_clicked(); // 发送按钮的槽函数 void onReplyFinished(QNetworkReply *reply); // 网络请求完成的槽函数 private: Ui::MainWindow *ui; QNetworkAccessManager *networkManager; // 网络访问管理器 };接着在mainwindow.cpp的构造函数里初始化networkManager#include mainwindow.h #include ui_mainwindow.h #include QJsonDocument #include QJsonObject #include QJsonArray #include QNetworkRequest #include QMessageBox MainWindow::MainWindow(QWidget *parent) : QMainWindow(parent), ui(new Ui::MainWindow), networkManager(new QNetworkAccessManager(this)) { ui-setupUi(this); // 连接网络请求完成信号到我们的槽函数 connect(networkManager, QNetworkAccessManager::finished, this, MainWindow::onReplyFinished); } MainWindow::~MainWindow() { delete ui; }现在实现发送按钮的槽函数on_pushButton_clicked()void MainWindow::on_pushButton_clicked() { QString prompt ui-inputTextEdit-toPlainText().trimmed(); if (prompt.isEmpty()) { QMessageBox::information(this, 提示, 请输入问题内容。); return; } // 更新UI状态提示用户正在处理 ui-statusLabel-setText(正在思考...); ui-pushButton-setEnabled(false); // 禁用按钮防止重复发送 // 构造请求的JSON数据 QJsonObject json; json[model] phi3:mini-128k-instruct; json[prompt] prompt; json[stream] false; // 我们使用非流式响应一次性获取全部内容 QJsonDocument doc(json); QByteArray data doc.toJson(); // 设置网络请求 QNetworkRequest request(QUrl(http://localhost:11434/api/generate)); request.setHeader(QNetworkRequest::ContentTypeHeader, application/json); // 发起POST请求 networkManager-post(request, data); }最后实现处理响应的槽函数onReplyFinishedvoid MainWindow::onReplyFinished(QNetworkReply *reply) { // 无论成功失败先恢复按钮状态 ui-pushButton-setEnabled(true); if (reply-error() QNetworkReply::NoError) { // 读取返回的JSON数据 QByteArray responseData reply-readAll(); QJsonDocument jsonResponse QJsonDocument::fromJson(responseData); QJsonObject jsonObject jsonResponse.object(); if (jsonObject.contains(response)) { QString modelResponse jsonObject[response].toString(); ui-responseTextEdit-setPlainText(modelResponse); ui-statusLabel-setText(就绪); } else { ui-responseTextEdit-setPlainText(错误未在返回数据中找到response字段。\n responseData); ui-statusLabel-setText(响应解析错误); } } else { // 处理网络错误 ui-responseTextEdit-setPlainText(请求失败\n reply-errorString()); ui-statusLabel-setText(请求失败); // 可以更详细地检查是否是模型服务未启动 if (reply-error() QNetworkReply::ConnectionRefusedError) { ui-responseTextEdit-append(\n\n提示请确保Ollama服务正在运行localhost:11434。); } } reply-deleteLater(); // 重要释放reply对象 }到这里核心功能就完成了。编译并运行你的程序在输入框里敲点问题点击发送应该就能在下面的框里看到Phi-3模型的回复了。4. 打磨一下用户体验基础功能跑通后我们可以加点小功能让它更好用。添加一个清空按钮在UI上再放一个按钮文本叫“清空”。给它创建槽函数里面写两行代码ui-inputTextEdit-clear();和ui-responseTextEdit-clear();。这样就能快速开始新一轮对话。让回复显示更舒服可以设置responseTextEdit的字体比如用个等宽字体Courier New这样看代码或格式化的内容会更整齐。在构造函数里加一句ui-responseTextEdit-setFont(QFont(Courier New, 10));。处理长文本的滚动当回复很长时自动滚动到底部能看到最新内容。在onReplyFinished函数里设置完文本后加一句ui-responseTextEdit-ensureCursorVisible();。保存对话记录这是个很有用的进阶功能。可以添加一个“保存”按钮点击后将当前问答保存到文件。简单实现的话可以用QFileDialog让用户选个保存位置然后把inputTextEdit和responseTextEdit的内容写到文本文件里。做这些优化的时候不用追求一步到位先让主要功能稳定再一点点往上加。每加一个小功能都编译运行测试一下确保没引入新的问题。5. 打包成独立的可执行文件开发完了我们肯定不想每次都开着Qt Creator来运行。Qt提供了工具可以把程序打包成能在其他电脑上独立运行的软件包。第一步以Release模式编译。在Qt Creator左下角将构建套件从Debug切换到Release然后点击构建。这会在你的项目构建目录比如build-Phi3DesktopAssistant-Release里生成一个优化过的、不带调试信息的可执行文件.exe或.out。第二步找到依赖的DLLWindows。光有.exe文件还不行它需要一堆Qt的动态链接库。最简单的方法是使用Qt自带的命令行工具windeployqtWindows或macdeployqtmacOS。打开Qt 5.15.2 (MinGW 8.1.0 64-bit)这样的终端切换到你的Release版.exe文件所在的目录然后运行windeployqt --release Phi3DesktopAssistant.exe这个命令会自动扫描你的exe文件需要哪些Qt模块的DLL并把它们都复制到当前文件夹。对于Linux情况稍微复杂通常需要将程序打包成AppImage、Snap或者直接提供编译好的二进制文件加安装脚本。第三步整理和测试。windeployqt会拉进来很多文件。你可以新建一个文件夹比如叫Phi3Assistant_Release把.exe文件和它生成的所有.dll、.qm等文件都放进去。然后在另外一台没有安装Qt开发环境的电脑上或者至少在一个全新的目录下双击这个.exe文件看看能不能正常运行。如果能成功启动并调用本地的模型服务那打包就基本成功了。关于模型服务的提醒我们打包的只是Qt客户端程序。Phi-3模型服务Ollama需要用户在自己的电脑上单独安装和运行。你可以在程序里加个更明显的提示或者在README文件里写清楚这一点。6. 实际用起来的感受和延伸想法把这个小工具跑起来之后我感觉最大的好处就是“方便”。不用开浏览器不用记API地址一个独立的桌面窗口随用随开。对于经常需要和本地模型交互的场景比如写代码时查个语法、快速翻译一段文字、或者整理一些想法还是挺顺手的。当然现在这个版本还很简单。如果你有兴趣继续深化有几个方向可以考虑一个是界面美化Qt的样式表QSS功能很强大可以轻松做出现代化的界面。另一个是功能增强比如支持多轮对话历史需要程序里维护一个上下文列表发给模型、支持不同的模型参数如temperature、max_tokens、或者把对话记录做成带时间戳的日志。还有一个更实用的点就是错误处理和稳定性。比如网络中断后自动重试、模型服务未启动时给出更明确的引导提示、或者支持用户自定义模型服务的IP和端口。这些都能让这个小工具从“玩具”变得更像“产品”。总的来说用Qt来集成这类HTTP API的AI服务思路很直接就是“发请求-等回复-展示”。它把复杂的模型推理留给了专业的后端工具我们只需要专注于做一个好用、好看的客户端。这种分工让开发桌面AI应用的门槛降低了不少特别适合想要快速验证想法或者打造个人效率工具的开发者。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

Phi-3-mini-128k-instruct实战:使用Qt开发跨平台AI桌面应用

Phi-3-mini-128k-instruct实战:使用Qt开发跨平台AI桌面应用 最近在捣鼓一些本地AI应用,发现很多开发者朋友对如何把大模型塞进自己的桌面程序里很感兴趣。特别是用C和Qt的,总觉得这块门槛有点高。其实没那么复杂,我今天就用微软开…...

SpringBoot与Camunda实战:BPMN流程设计中的监听器机制深度解析

1. 监听器机制在BPMN流程中的核心价值 当你第一次接触Camunda流程引擎时,可能会被各种监听器类型绕晕。但我要告诉你,监听器就像是流程节点的"智能管家",它能帮你实现90%的动态流程控制需求。我在金融风控系统项目中,就…...

MTK DRM显示框架下的多屏兼容实战:从LK到Kernel的完整链路解析

1. MTK DRM显示框架与多屏兼容概述 在嵌入式设备开发中,显示系统的兼容性一直是工程师面临的核心挑战之一。MTK平台采用的DRM(Direct Rendering Manager)显示框架,为多屏幕适配提供了标准化的解决方案。这套框架从Bootloader阶段&…...

PROJECT MOGFACE LaTeX写作助手:学术论文智能排版与公式校对

PROJECT MOGFACE LaTeX写作助手:学术论文智能排版与公式校对 写论文,尤其是理工科的论文,最头疼的是什么?对我来说,不是想不出创新点,而是跟LaTeX斗智斗勇。一个复杂的表格,调格式调半小时&…...

从部署到对话:Qwen3-0.6B-FP8图文并茂的完整操作流程

从部署到对话:Qwen3-0.6B-FP8图文并茂的完整操作流程 1. 开篇:为什么选择Qwen3-0.6B-FP8? 如果你正在寻找一个能在普通电脑上流畅运行,同时又能干点“聪明事”的AI模型,那么Qwen3-0.6B-FP8很可能就是你的菜。 想象一…...

Phi-3 Forest Laboratory 模型服务压力测试:使用JMeter模拟高并发请求

Phi-3 Forest Laboratory 模型服务压力测试:使用JMeter模拟高并发请求 最近有不少朋友在部署完Phi-3 Forest Laboratory这类大模型API服务后,跑来问我一个挺实际的问题:“我这服务到底能扛住多少人同时用?” 确实,模型…...

Windows右键菜单添加Git Bash Here的终极指南(含图标设置)

Windows右键菜单深度定制:为Git Bash添加专属入口与个性化图标 每次在资源管理器中右键点击文件夹时,那些看似简单的菜单选项背后其实隐藏着强大的定制潜力。对于开发者而言,将常用工具集成到右键菜单可以节省大量时间——想象一下&#xff0…...

Labview机器视觉入门:5分钟搞定图像像素读写与保存(附完整源码)

LabVIEW机器视觉实战:从像素操作到图像保存的完整指南 在工业自动化与智能制造领域,机器视觉正成为不可或缺的核心技术。作为一款图形化编程语言,LabVIEW凭借其直观的界面和强大的视觉开发模块,让没有专业背景的工程师也能快速构建…...

智能家居灯光控制方案:基于STM32F103的WS2812驱动优化技巧(支持HomeAssistant)

智能家居灯光控制方案:基于STM32F103的WS2812驱动优化技巧(支持HomeAssistant) 在智能家居领域,灯光控制系统的响应速度和稳定性直接影响用户体验。传统方案常面临延迟高、色彩过渡不自然等问题,而基于STM32F103微控制…...

ollama运行QwQ-32B多场景落地:教育答题助手、法律条文推理案例

ollama运行QwQ-32B多场景落地:教育答题助手、法律条文推理案例 1. 快速上手QwQ-32B推理模型 QwQ-32B是Qwen系列中具备强大推理能力的语言模型,与传统指令调优模型相比,它在解决复杂问题和逻辑推理方面表现突出。这个模型拥有325亿参数&…...

AIGlasses_for_navigation多场景落地:养老院跌倒预警+盲道导航融合方案

AIGlasses_for_navigation多场景落地:养老院跌倒预警盲道导航融合方案 1. 引言:当智能眼镜走出实验室 想象一下这个场景:一位视障朋友正走在回家的路上,他佩戴的智能眼镜通过语音轻声提醒:“前方盲道向右偏移&#x…...

Pycharm远程连接报错?手把手教你解决SSH权限问题(附.ssh文件夹删除大法)

PyCharm远程连接SSH权限问题终极解决方案 引言 作为一名长期使用PyCharm进行远程开发的工程师,我深知SSH连接问题带来的困扰。特别是当项目进度紧迫时,一个简单的权限报错可能让你浪费数小时。本文将分享我多年来处理PyCharm SSH连接问题的实战经验&…...

NumPy @运算符 vs. * vs. dot():别再混淆了,一文搞懂它们的区别与最佳使用场景

NumPy 运算符 vs. * vs. dot():别再混淆了,一文搞懂它们的区别与最佳使用场景 在Python科学计算领域,NumPy的矩阵运算操作符选择常常让开发者陷入困惑。当你需要在、*和dot()之间做出选择时,是否曾犹豫过它们究竟有何不同&#xf…...

GD32定时器输入捕获实战:如何精准测量风扇转速(附完整代码)

GD32定时器输入捕获实战:如何精准测量风扇转速(附完整代码) 在工业控制、服务器散热和智能家居等领域,风扇转速监测是保障设备稳定运行的关键指标。传统的光电传感器方案不仅增加硬件成本,还面临安装空间限制的问题。本…...

解决Ubuntu 18.04找不到AX200 WiFi适配器的5个关键步骤

Ubuntu 18.04下AX200无线网卡驱动完整配置指南 当你兴奋地将新买的Intel AX200 WiFi 6网卡装进电脑,启动Ubuntu 18.04后却发现系统根本无法识别这块高端网卡时,那种挫败感我深有体会。作为一款支持最新WiFi 6标准的无线网卡,AX200在Linux系统…...

Phi-3-mini-128k-instruct处理长文本:128K上下文在代码审查中的效果展示

Phi-3-mini-128k-instruct处理长文本:128K上下文在代码审查中的效果展示 最近在尝试各种大模型处理代码任务时,我遇到了一个挺有意思的模型——Phi-3-mini-128k-instruct。它最大的特点就是那个128K的超长上下文窗口。你可能听说过很多模型在处理长文本…...

VSCode插件实战:如何用AI助手把IDEA的console.log快捷功能搬过来?

VSCode插件实战:用AI助手实现IDEA风格的console.log智能补全 作为一名长期使用JetBrains全家桶的开发者,第一次切换到VSCode时最不习惯的就是那些细微但高频的效率差异。比如在IDEA中,只需在变量后输入.log就能自动补全为console.log()的流畅…...

银河麒麟V10 SP1离线环境搭建全攻略:从Java8到Node.js的避坑指南

银河麒麟V10 SP1离线环境搭建全攻略:从Java8到Node.js的避坑指南 在国产操作系统日益普及的今天,银河麒麟V10 SP1作为一款安全可靠的操作系统,正被越来越多的企业和开发者采用。然而,在离线环境下搭建完整的开发环境,尤…...

SmolVLA作品集:不同复杂度指令(单动作vs多步任务)效果对比

SmolVLA作品集:不同复杂度指令(单动作vs多步任务)效果对比 1. 引言:当机器人能听懂你的话 想象一下,你站在一个机器人旁边,桌子上散落着几个不同颜色的方块。你对它说:“把红色的方块拿起来&a…...

内网环境部署指南:在隔离网络中一键部署BERT文本分割镜像

内网环境部署指南:在隔离网络中一键部署BERT文本分割镜像 你是不是也遇到过这种情况?公司出于安全考虑,核心服务器集群完全隔离在内部网络,连不上外网。这时候想部署一个像BERT文本分割这样的AI模型,是不是感觉无从下…...

用Python复刻经典:植物大战僵尸游戏中的面向对象编程实践

Python面向对象编程实战:从植物大战僵尸源码看游戏开发精髓 当经典塔防游戏遇上Python的面向对象编程,会碰撞出怎样的火花?本文将带你深入分析一个Python复刻版植物大战僵尸的源码设计,通过游戏开发中的实际案例,揭示面…...

OpenGL实战:如何在三维图形中正确使用透视投影与平行投影(附完整代码示例)

OpenGL实战:三维图形中透视与平行投影的深度解析与代码实现 在三维图形编程领域,投影变换是连接虚拟世界与二维屏幕的关键桥梁。作为OpenGL开发者,我们常常需要在不同场景下灵活切换透视投影与平行投影,以呈现符合人类视觉习惯或工…...

DCT-Net人像卡通化效果展示:侧脸/背影/多人合照兼容性验证

DCT-Net人像卡通化效果展示:侧脸/背影/多人合照兼容性验证 1. 引言:不止于正脸的艺术转换 人像卡通化,听起来是个挺酷的功能。你可能试过一些工具,上传一张正面清晰的大头照,然后得到一张卡通头像。但现实情况往往更…...

REX-UniNLU与YOLOv8结合:多模态信息抽取系统

REX-UniNLU与YOLOv8结合:多模态信息抽取系统 1. 多模态信息抽取的价值 在日常工作中,我们经常需要从各种格式的信息中提取关键内容。比如从一份产品报告中找出产品名称、价格和规格,或者从一张商品图片中识别出商品信息和价格标签。 传统的…...

英伟达的自动驾驶“双轨制”:在“类人直觉”与“绝对安全”之间寻找平衡

引言:一场彰显信心的试乘与一个深刻的反思 3月12日消息,英伟达自动驾驶负责人吴新宙与公司CEO黄仁勋之间有一个不成文的约定:每隔半年,当吴新宙对系统的安全性有“充分信心”时,他会邀请黄仁勋进行一次“脱手”试乘。最近的一次旅程,二人乘坐梅赛德斯-奔驰CLA轿车,从伍…...

从YOLOv5到YOLOv8:扑克牌识别模型演进与网页端部署实战

1. YOLO系列模型的技术演进之路 第一次接触YOLO系列模型是在2018年,当时我正在做一个工业质检项目,需要实时检测生产线上的产品缺陷。那时候YOLOv3刚发布不久,其"只看一次"的设计理念让我眼前一亮。没想到几年后,这个系…...

学嵌入式的谁没迷茫过?

上来就想啃 Linux 驱动,结果连个 LED 都点不亮(即便是点亮了,也是不知道里面的门道,就好比拿了驾照会开车就是不知道发动机的原理)如果学习按顺序来,别跳关,不然分分钟给你干自闭。先从最基础的…...

Qwen3.5-27B部署教程:7860端口反向代理至域名+HTTPS证书自动配置

Qwen3.5-27B部署教程:7860端口反向代理至域名HTTPS证书自动配置 1. 环境准备与快速部署 在开始之前,请确保您已经准备好以下环境: 一台运行Linux系统的服务器(推荐Ubuntu 20.04)4张RTX 4090 D 24GB显卡(…...

快速体验黑丝空姐-造相Z-Turbo:开箱即用的文生图模型部署指南

快速体验黑丝空姐-造相Z-Turbo:开箱即用的文生图模型部署指南 想体验一下用AI生成特定风格图片的乐趣吗?今天给大家介绍一个非常有意思的模型——黑丝空姐-造相Z-Turbo。这是一个基于Z-Image-Turbo模型,专门针对生成“黑丝空姐”主题图片进行…...

TranslateGemma快速入门:无需代码,开箱即用的翻译神器

TranslateGemma快速入门:无需代码,开箱即用的翻译神器 1. 产品介绍 TranslateGemma是基于Google最新TranslateGemma-12B-IT模型打造的企业级本地神经机器翻译系统。这个开箱即用的解决方案让用户无需编写任何代码,就能享受到专业级的翻译服…...