当前位置: 首页 > article >正文

保姆级教程:在Win10的WSL2里,用Dify 1.9和Ollama 0.12.9搭一个本地的通义千问AI助手

零基础在Windows 10上打造专属AI助手WSL2DifyOllama实战指南你是否想过在自己的电脑上运行一个完全本地的AI助手不需要昂贵的云端算力不依赖网络连接所有数据都在本地处理。今天我们就用Windows 10自带的WSL2功能配合Dify和Ollama两大开源工具一步步搭建一个能流畅运行通义千问模型的私人AI助手。整个过程就像搭积木一样简单即使你是刚接触AI的新手也能轻松完成。1. 环境准备打造完美的WSL2开发环境在开始之前我们需要确保你的Windows 10系统已经准备好运行Linux环境。WSL2Windows Subsystem for Linux 2是微软提供的Linux子系统它比第一代WSL有更好的性能表现特别是对Docker的支持更加完善。检查WSL2是否已启用以管理员身份打开PowerShell输入命令wsl --list --verbose如果看到类似下面的输出说明WSL2已安装NAME STATE VERSION * Ubuntu-22.04 Running 2如果还没有安装WSL2可以按照以下步骤操作启用WSL功能dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart启用虚拟机平台dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart重启计算机设置WSL2为默认版本wsl --set-default-version 2从Microsoft Store安装Ubuntu 22.04 LTS安装完成后建议进行一些基础配置更新软件包列表sudo apt update sudo apt upgrade -y安装常用工具sudo apt install -y curl wget git配置SSH可选sudo apt install -y openssh-server提示WSL2默认会把Linux文件系统挂载在/mnt目录下但为了获得最佳性能建议在Linux自己的文件系统中工作如~/projects。2. 一键部署Dify 1.9开箱即用的AI应用平台Dify是一个强大的开源LLM应用开发平台它提供了直观的图形界面让开发者无需编写复杂代码就能构建AI应用。最新1.9版本在性能和稳定性上都有显著提升。安装Docker和Docker Compose在WSL2的Ubuntu终端中执行以下命令# 安装Docker sudo apt install -y docker.io sudo systemctl enable docker --now sudo usermod -aG docker $USER # 安装Docker Compose sudo curl -L https://github.com/docker/compose/releases/download/v2.23.0/docker-compose-$(uname -s)-$(uname -m) -o /usr/local/bin/docker-compose sudo chmod x /usr/local/bin/docker-compose部署Dify 1.9.2克隆Dify仓库git clone https://github.com/langgenius/dify.git --branch 1.9.2 cd dify/docker复制环境配置文件cp .env.example .env启动Dify服务docker compose up -d这个命令会启动多个容器包括Web界面、API服务、数据库等。首次运行可能需要几分钟时间下载镜像。常见问题解决如果遇到数据库权限错误可能是因为你在Windows文件系统中运行了Docker。解决方法很简单# 将项目移动到Linux主目录 mv /mnt/c/Users/yourname/dify ~/ cd ~/dify/docker docker compose up -d访问Dify管理界面在浏览器中输入http://localhost你应该能看到Dify的登录页面。默认管理员账号是用户名adminexample.com密码password首次登录后请立即修改密码。3. 部署Ollama并加载通义千问模型Ollama是一个轻量级的本地大模型运行框架它让在个人电脑上运行各种开源模型变得非常简单。我们将使用它来加载通义千问1.7B参数版本。安装Ollama 0.12.9在WSL2终端中执行curl -fsSL https://ollama.com/install.sh | sh安装完成后启动Ollama服务ollama serve下载通义千问模型打开另一个终端窗口执行ollama pull qwen:1.7b这个命令会下载约3.5GB的模型文件具体时间取决于你的网络速度。验证模型运行ollama run qwen:1.7b 你好介绍一下你自己如果看到模型的回复说明安装成功。4. 在Dify中连接Ollama模型现在我们已经有了运行中的Dify平台和Ollama模型服务接下来需要将它们连接起来。配置Dify访问Ollama登录Dify管理界面点击右上角设置图标 → 模型供应商 → Ollama点击添加模型按钮填写模型配置信息配置项值模型名称qwen3:1.7b基础URLhttp://host.docker.internal:11434模型类型对话模型上下文长度4096最大token上限4096是否支持Vision否点击保存按钮注意host.docker.internal是Docker提供的特殊域名指向宿主机即运行Ollama的WSL2环境。如果连接失败可以尝试使用WSL2的实际IP地址。解决高版本Ollama的推理显示问题Ollama 0.12.9版本默认会显示模型的推理过程这可能导致Dify界面卡在等待状态。我们可以创建一个自定义模型来解决这个问题创建一个名为qwen3n.mf的文件vim qwen3n.mf粘贴以下内容FROM qwen:1.7b TEMPLATE {{ if .System }}|im_start|system {{ .System }}|im_end| {{ end }}{{ if .Prompt }}|im_start|user /nothink{{ .Prompt }}|im_end| {{ end }}|im_start|assistant {{ .Response }}|im_end| 创建新模型ollama create qwen3n:1.7b -f ./qwen3n.mf在Dify中添加这个新模型配置方法与之前相同5. 创建你的第一个AI聊天应用现在一切准备就绪让我们在Dify中创建一个简单的聊天应用。登录Dify点击创建应用选择对话应用类型为应用命名如我的AI助手在提示词编排页面选择模型供应商Ollama选择模型qwen3n:1.7b设置温度(Temperature)为0.7控制创造性的参数在系统提示中输入你是一个乐于助人的AI助手回答要简洁专业点击保存按钮测试你的AI助手在应用页面右上角点击发布然后选择访问地址。这会打开一个新的浏览器标签页你可以在这里与你的AI助手对话了。试试问它一些问题用Python写一个快速排序算法如何用Dify创建一个文本总结应用解释一下量子计算的基本概念高级技巧提升响应速度如果你的电脑配置不高可能会觉得模型响应有点慢。可以尝试以下优化在WSL2配置文件中增加内存限制在%USERPROFILE%\.wslconfig中添加[wsl2] memory8GB swap4GB使用量化版本的小模型如qwen:1.7b-q4_0关闭其他占用资源的程序6. 扩展应用从聊天到多功能助手基础的聊天功能只是开始Dify还支持创建更复杂的AI应用。让我们尝试构建一个多功能的个人助手。创建文本总结工具新建一个文本生成类型应用使用以下提示词模板请将以下文本总结为不超过100字的摘要 {{input}} 摘要要求 - 保留核心信息 - 语言简洁明了 - 不要添加原文中没有的内容发布后粘贴一段长文本测试效果构建知识库问答系统在Dify中创建一个新应用选择知识库问答类型上传一些PDF或TXT文档如产品手册、学习资料配置检索参数检索方式语义检索返回结果数3测试提问与上传文档相关的问题性能对比不同模型设置的影响参数响应速度回答质量适用场景Temperature0.3快保守准确事实性问答Temperature0.7中等平衡一般对话Temperature1.0慢富有创意头脑风暴max_tokens512快可能不完整简短回答max_tokens2048慢完整详细复杂问题7. 日常维护与问题排查为了让你的本地AI助手持续稳定运行需要了解一些基本的维护技巧。常用Docker命令# 查看运行中的容器 docker ps # 查看Dify日志 docker compose logs -f # 重启Dify服务 docker compose restart # 更新Dify版本 git pull docker compose down docker compose up -d --force-recreateOllama管理技巧查看已安装的模型ollama list删除不需要的模型ollama rm 模型名更新模型ollama pull 模型名常见问题解决方案Dify界面无法访问检查Docker是否运行docker ps检查端口是否被占用netstat -tulnp | grep 80尝试重启服务docker compose restart模型响应速度突然变慢检查系统资源使用htop重启Ollama服务pkill ollama ollama serve考虑使用更小的量化模型对话内容不符合预期检查系统提示词设置调整Temperature参数0.3-1.0之间尝试清除对话历史重新开始备份策略虽然所有数据都在本地但定期备份仍然很重要Dify数据备份docker exec -t docker-db-1 pg_dump -U postgres -d app dify_backup.sqlOllama模型备份模型文件默认存储在~/.ollama/models可以复制整个目录到安全位置这套本地AI助手方案最大的优势就是完全在掌控之中没有数据外泄的风险响应速度也不会受网络影响。我在自己的老款笔记本上运行处理日常问答、代码建议绰绰有余。遇到复杂问题时可以随时调整模型参数或提示词这种灵活性是云端服务难以提供的。

相关文章:

保姆级教程:在Win10的WSL2里,用Dify 1.9和Ollama 0.12.9搭一个本地的通义千问AI助手

零基础在Windows 10上打造专属AI助手:WSL2DifyOllama实战指南 你是否想过在自己的电脑上运行一个完全本地的AI助手?不需要昂贵的云端算力,不依赖网络连接,所有数据都在本地处理。今天我们就用Windows 10自带的WSL2功能&#xff0c…...

从零开始:用NumPy手搓一个多层感知机(MLP),并和PyTorch结果对齐

从零构建MLP:用NumPy实现与PyTorch对齐的神经网络训练全流程 在深度学习框架高度封装的今天,许多开发者已经习惯了调用现成的API搭建神经网络。但当你真正用NumPy从零实现一个多层感知机(MLP),并与PyTorch的结果进行严…...

高光谱成像基础(十二)光谱重建(Spectral Reconstruction)卸

认识Pass层级结构 Pass范围从上到下一共分为5个层级: 模块层级:单个.ll或.bc文件 调用图层级:函数调用的关系。 函数层级:单个函数。 基本块层级:单个代码块。例如C语言中{}括起来的最小代码。 指令层级:单…...

你还在用传统线程池扛高并发?Java 25虚拟线程真实压测对比:错误率下降92.7%,但90%团队正踩这6个配置雷区

第一章:Java 25虚拟线程高并发架构演进全景图Java 25正式将虚拟线程(Virtual Threads)从预览特性转为稳定特性,并深度整合至JDK核心运行时与工具链,标志着JVM并发模型进入“轻量级线程即原语”新纪元。相比传统平台线程…...

银河麒麟系统部署Ollama:从依赖修复到服务自启全攻略

1. 银河麒麟系统部署Ollama的挑战与解决方案 国产操作系统银河麒麟以其安全稳定的特性受到越来越多企业和开发者的青睐。但在实际部署AI工具时,我们经常会遇到一些特有的兼容性问题。最近我在一个政府项目中部署Ollama大模型服务时就踩了个典型的坑——系统自带的li…...

PHP 8.9原生异步I/O终极调优清单(含12项基准测试指标、9类典型负载适配矩阵)

第一章:PHP 8.9原生异步I/O的核心演进与设计哲学PHP 8.9并未实际发布——截至2024年,PHP官方最新稳定版本为PHP 8.3,且PHP核心开发团队已明确表示**不会在PHP 8.x系列中引入原生异步I/O运行时**。该标题所指的“PHP 8.9”属于虚构版本&#x…...

Java 核心四大基石:从 Object 源码到包装类陷阱的全维度复盘技

MySQL 中的 count 三兄弟:效率大比拼! 一、快速结论(先看结论再看分析) 方式 作用 效率 一句话总结 count(*) 统计所有行数 最高 我是专业的!我为统计而生 count(1) 统计所有行数 同样高效 我是 count(*) 的马甲兄弟…...

从DINO Score到LLaVA:拆解SPAA论文如何用“双考官”机制筛选高质量AI修图

从DINO Score到LLaVA:构建AI图像编辑的"双考官"质量评估体系 在AI图像编辑技术快速发展的今天,如何系统评估生成结果的质量已成为产品落地的关键瓶颈。传统方法往往依赖人工审核或单一指标,既难以规模化又无法全面捕捉图像修改的语…...

给嵌入式开发者的698协议实战拆解:从报文抓包到C语言解析(附代码)

给嵌入式开发者的698协议实战拆解:从报文抓包到C语言解析(附代码) 在智能电表与集中器通信领域,698协议正逐渐成为主流标准。不同于传统645协议的简单数据标识,698协议采用面向对象的设计思想,为开发者提供…...

【hudi学习笔记】深入解析Hudi表设计:核心组件与高效索引机制

1. Hudi表设计的核心组件解析 第一次接触Hudi表设计时,我被它精巧的架构深深吸引。作为一个处理大规模数据湖的开源框架,Hudi通过三个核心组件构建了高效的数据管理机制,这就像建造一栋房子需要稳固的地基、承重墙和屋顶一样缺一不可。 时间轴…...

信号发生器与示波器阻抗匹配:为什么测量结果与预期不符?

1. 信号发生器与示波器的阻抗匹配基础 第一次用示波器测量信号发生器输出时,我盯着屏幕上的波形愣住了——明明设置了1V峰峰值,为什么示波器显示的是2V?这个问题困扰了我整整一个周末,直到弄明白阻抗匹配的原理才恍然大悟。 信号发…...

STM32内存优化实战:解决Keil5 L6406E报错与SRAM/FLASH分配策略

1. 认识Keil5 L6406E报错:内存不足的典型症状 第一次在Keil5里看到"Error: L6406E: No space in execution regions"这个红色报错时,我正把STM32F103的程序往STM32G0系列芯片移植。编译器的这个报错就像高速公路上的限高杆——明确告诉你装载的…...

抖音下载神器:5分钟学会批量下载无水印视频的终极指南

抖音下载神器:5分钟学会批量下载无水印视频的终极指南 【免费下载链接】douyin-downloader A practical Douyin downloader for both single-item and profile batch downloads, with progress display, retries, SQLite deduplication, and browser fallback suppo…...

Cuvil如何让PyTorch推理成本直降42%?揭秘LLM服务中被忽略的编译器级TCO压缩术

第一章:Cuvil编译器在Python AI推理中的应用Cuvil 是一款面向AI推理场景设计的轻量级领域专用编译器(DSL Compiler),专为将Python中基于NumPy/TensorFlow/PyTorch的模型前向逻辑高效编译为目标硬件指令而构建。它不替代完整框架&a…...

NPJ Precis Oncol 重庆大学附属肿瘤医院张久权教授团队:基于纵向MRI的分形分析预测乳腺癌新辅助化疗反应

01文献学习今天分享的文献是由重庆大学附属肿瘤医院张久权教授等团队于12月12日在肿瘤学顶刊《npj Precision Oncology》(中科院1区top,IF8)上发表的研究“Fractal analysis of longitudinal MRI for predicting response to neoadjuvant che…...

终极指南:如何使用Everything Claude Code实现Laravel验证循环的AI自动化

终极指南:如何使用Everything Claude Code实现Laravel验证循环的AI自动化 【免费下载链接】everything-claude-code The agent harness performance optimization system. Skills, instincts, memory, security, and research-first development for Claude Code, C…...

Windows任务栏美化终极指南:如何使用TranslucentTB实现透明化效果

Windows任务栏美化终极指南:如何使用TranslucentTB实现透明化效果 【免费下载链接】TranslucentTB A lightweight utility that makes the Windows taskbar translucent/transparent. 项目地址: https://gitcode.com/gh_mirrors/tr/TranslucentTB 你是否厌倦…...

谷歌开发入门完整指南,从零开始入门,一分钟就能学会的开发者教程

谷歌开发入门指南涵盖领域极广,因其产品生态庞大,包括安卓(Android)、云平台(Google Cloud)、API服务、机器学习(TensorFlow)、Web技术等。本文将遵循与《鸿蒙开发者入门指南》类似的…...

HagiCode 为什么选择 Hermes 作为综合 Agent 核心一

1. 哑铃图是什么? 哑铃图(Dumbbell Plot),有时也称为DNA图或杠铃图,是一种用于比较两个相关数据点的可视化图表。 它源于人们对更有效数据比较方式的持续探索。 在传统的时间序列比较中,我们通常使用两条折…...

Java 响应式编程最佳实践:构建高效的异步应用

Java 响应式编程最佳实践:构建高效的异步应用别叫我大神,叫我 Alex 就好。一、引言 大家好,我是 Alex。响应式编程作为一种编程范式,已经在 Java 生态系统中变得越来越重要。随着 Spring WebFlux、Project Reactor 和 RxJava 等框…...

从原理到选型:WDM波分复用技术全解析与应用指南

1. WDM波分复用技术基础入门 第一次接触WDM这个概念是在2013年参加某运营商骨干网改造项目时。当时客户指着机房密密麻麻的光纤问我:"能不能在不更换现有光缆的情况下,把传输容量提升8倍?"这个问题直接把我问住了。后来在华为专家的…...

台达PLC与C#串口通信实时监控:XML配置监控地址,控件自动生成读写同步操作

台达plc与C#串口通信程序,可同步读写操作,实时监控。 监控地址通过xml文件配置,控件自动生成。折腾工控通信的老铁们肯定都遇到过这问题——PLC和上位机要实时互传数据还得保证不卡顿。今天咱们就用C#和台达PLC的串口通信来盘一盘这个需求&am…...

基于WRF-DNN融合的气象数据降尺度技术实践与优化

1. 气象数据降尺度为什么需要WRF和DNN联手? 每次打开天气预报App查看未来几天的温度变化时,你可能不会想到背后需要处理TB级的气象数据。专业领域使用的WRF模型就像个严谨的老教授,擅长用物理公式推演天气变化,但有个致命弱点——…...

崖山数据库的体系架构

一、 数据库与数据库实例YashanDB数据库,英文名称叫做Yashan Database。这里所说的数据库是一个物理上的概念,即指物理操作系统的文件或者磁盘的集合。换句话来说,YashanDB数据库是由物理硬盘上许多的文件组成。这些文件包含了数据文件、控制…...

中文Python游戏开发避坑指南:植物大战僵尸开发中的5个常见问题及解决方案

Python游戏开发实战:植物大战僵尸复刻中的5个关键技术挑战 在游戏开发领域,Python凭借其简洁语法和丰富的库支持,成为许多独立开发者的首选语言。植物大战僵尸作为一款经典的塔防游戏,其核心玩法看似简单,但在实际开发…...

Mojo模块如何无缝注入PyTorch训练循环:从Cython替代到JIT热重载的完整链路(仅限内测版工具链公开)

第一章:Mojo模块如何无缝注入PyTorch训练循环:从Cython替代到JIT热重载的完整链路(仅限内测版工具链公开)Mojo模块通过原生ABI兼容层与PyTorch C前端深度对齐,无需修改torch.compile()调用栈即可嵌入训练循环。其核心机…...

RFSOC XCZU47DR在5G射频基带开发中的实战应用(含代码示例)

RFSOC XCZU47DR在5G射频基带开发中的实战应用(含代码示例) 在5G通信系统的开发中,射频基带处理一直是工程师面临的核心挑战之一。Xilinx的RFSOC XCZU47DR凭借其独特的架构设计,将高性能RF数据转换器与可编程逻辑完美融合&#xff…...

全球真空电子方向研究单位集锦

摘要:微波电子管是雷达、卫星、导弹、核聚变的核心 "心脏",也是全球少数几个真正的 "卡脖子" 技术之一。全世界能独立研制高端微波管的国家不超过 5 个,顶尖研究机构更是屈指可数。本文承接《微波电真空器件硬核科普》系…...

MetalLB才是给Ingress这个老登做负重前行的那个男人棺

一、核心问题及解决方案(按踩坑频率排序) 问题 1:误删他人持有锁——最基础也最易犯的漏洞 成因:释放锁时未做身份校验,直接执行 DEL 命令删除键。典型场景:服务 A 持有锁后,业务逻辑耗时超过锁…...

IP地址什么?工业场景网络注意事项有哪些?僬

OCP原则 ocp指开闭原则,对扩展开放,对修改关闭。是七大原则中最基本的一个原则。 依赖倒置原则(DIP) 什么是依赖倒置原则 核心是面向接口编程、面向抽象编程, 不是面向具体编程。 依赖倒置原则的目的 降低耦合度&#…...