当前位置: 首页 > article >正文

阿里云ECS实战:Ollama云端部署与跨网络本地调用全解析

1. 为什么要把Ollama放到云端聊聊我的真实想法你可能和我一样最开始接触大模型都是在自己的电脑上跑。装个Ollama拉个几B的小模型玩玩对话感觉挺酷。但很快问题就来了我的MacBook Pro风扇开始狂转电脑烫得能煎鸡蛋想试试更大的7B、13B模型直接卡死内存告急。更别提想24小时挂个AI助手随时调用了总不能让自己的电脑永不关机吧这就是我决定把Ollama搬到阿里云ECS上的最直接原因。把计算压力从本地转移到云端听起来像是“专业玩家”的操作但其实门槛比你想象的低得多。我实测下来这不仅仅是解放了本地电脑更打开了一扇新的大门。想象一下你可以在公司用办公电脑、在家用笔记本、甚至在路上用手机都能调用同一个性能强劲、永远在线的“私人AI大脑”。这个大脑运行在云端一台配置不错的服务器上不受你本地设备性能的束缚。而且成本并没有想象中那么高。阿里云ECS有很多按量付费或者包月包年的优惠实例选择一款适合跑模型的比如内存大点的一个月可能也就一顿饭钱。相比自己折腾一台高性能台式机或者忍受本地跑模型的种种不便这个投入性价比极高。我自己选的就是一台4核8G的通用型实例跑个7B的模型流畅自如完全满足了日常开发调试和轻度使用的需求。所以这篇文章不是什么高深的理论探讨就是一个实战派的老兵带你一步步走通从云端部署Ollama到本地安全调用的完整链路。我会把我在这个过程中踩过的坑、总结的最佳实践毫无保留地分享给你。目标就一个让你看完就能动手动手就能成功。2. 战前准备搞定阿里云ECS与基础环境工欲善其事必先利其器。部署的第一步不是急着敲命令而是把“战场”准备好。这里我会详细拆解确保新手也能一步不错。2.1 ECS实例选购与登录别在第一步花冤枉钱选购ECS实例核心就看两点CPU和内存。对于运行Ollama这类大语言模型内存的重要性远大于CPU。模型参数会全部加载到内存中所以内存容量直接决定了你能跑多大的模型。入门体验如果你想快速体验跑跑像Qwen2.5-0.5B、1.8B这样的轻量模型那么2核4G的实例就够用。阿里云经常有活动这种配置的新用户成本极低。主流实用我强烈推荐从2核8G或4核8G起步。这个配置可以非常流畅地运行7B70亿参数级别的模型比如Llama 3.1 8B、Qwen2.5 7B等响应速度已经很快能满足大部分代码生成、文案创作、逻辑推理的需求。这也是我目前自用的主力配置。深度使用如果你想玩转13B、34B甚至更大模型那么请把目光投向8核16G、16核32G这样的配置。当然成本也会显著上升。操作系统的选择上无脑推荐Ubuntu 22.04 LTS或Ubuntu 24.04 LTS。这是社区支持最完善、文档最多的Linux发行版后续安装软件、排查问题都会省心很多。购买实例时在镜像市场里直接选就行。实例买好启动后我们就要登录了。Windows用户我推荐使用MobaXterm它集成了SSH客户端、SFTP文件传输还能直接编辑服务器上的文件非常方便。Mac和Linux用户直接用系统自带的终端Terminal就行。登录命令很简单ssh root你的ECS公网IP地址系统会提示你输入创建实例时设置的密码或者密钥。这里有个小贴士首次登录后我习惯先做两件事一是更新系统软件包sudo apt update sudo apt upgrade -y二是创建一个日常使用的普通用户避免一直用root操作adduser yourusername然后usermod -aG sudo yourusername。不过为了教程的简洁我们后续操作还是以root身份进行但你心里要知道生产环境用普通用户是更安全的做法。2.2 基础依赖安装为Ollama铺平道路登录到你的云端服务器一个干净的系统就像一张白纸。我们需要安装一些必要的“颜料”和“画笔”。别担心就几条命令。首先确保系统软件源是最新的这能避免后面安装时遇到版本冲突sudo apt update sudo apt upgrade -y接着安装一些编译和运行可能需要的工具。curl和wget用于下载文件git方便我们克隆一些项目虽然Ollama安装用不到build-essential是一组编译工具链sudo apt install -y curl wget git build-essentialOllama本身是Go语言写的但它运行模型依赖一些底层库。我们还需要安装一个重要的工具nvidia-container-toolkit。等等我们的ECS实例有GPU吗如果你买的是GPU计算型实例比如含有v100、A10等显卡那么安装这个工具能让Ollama使用GPU来加速推理速度会有质的飞跃。但如果你买的是普通的通用型或计算型实例没有独立GPU那这一步可以跳过Ollama会使用CPU运行速度会慢一些但对于小模型或测试来说完全可接受。如何判断有没有GPU可以安装lspci工具查看sudo apt install pciutils -y lspci | grep -i nvidia。如果有输出恭喜你可以继续配置GPU驱动和容器工具。鉴于GPU配置本身是一个复杂话题且很多用户初期使用CPU即可我们本篇先聚焦于最通用的CPU部署方案。如果你有GPU并且想配置可以在Ollama官方文档找到详细指引。3. 核心战役在ECS上部署与配置Ollama服务环境准备好了现在主角Ollama要登场了。在Linux上安装Ollama简单到令人发指但配置它允许远程访问才是我们这场“战役”的关键。3.1 一键安装与模型拉取Ollama官方提供了极简的一键安装脚本。直接在终端里执行下面这行命令curl -fsSL https://ollama.com/install.sh | sh这个脚本会自动检测你的系统架构下载最新的Ollama二进制文件并把它安装到合适的位置通常是/usr/bin/ollama。安装完成后Ollama其实已经作为一个后台服务systemd service在运行了。你可以用下面的命令检查它的状态sudo systemctl status ollama如果看到绿色的“active (running)”字样说明服务已经成功跑起来了。接下来我们拉取一个模型来测试。既然是测试我们选一个非常小巧但能力不错的模型比如qwen2.5:0.5b千问2.5的0.5B版本ollama pull qwen2.5:0.5b这个命令会从Ollama的模型库中下载指定的模型。0.5B的模型很小几十兆到一百多兆在云端网络环境下瞬间就能完成。下载完成后你可以直接在服务器上试试这个模型能不能用ollama run qwen2.5:0.5b执行后你会进入一个交互式对话界面输入“Hello”看看它会不会回应。用/bye退出。这一步只是为了验证Ollama核心功能正常并不是必须的。3.2 关键配置让Ollama对“外”开放默认情况下Ollama服务只监听本地回环地址127.0.0.1或localhost的11434端口。这意味着只有服务器自己能够访问外部网络包括你的本地电脑是无法连接的。我们的目标是从本地调用所以必须改变这个行为让Ollama监听在所有网络接口上0.0.0.0。这里就是第一个容易踩坑的地方。仅仅修改配置还不够必须配合防火墙和安全组形成一个完整的“放行”链条。第一步修改Ollama服务配置。我们需要告诉Ollama的系统服务启动时使用OLLAMA_HOST0.0.0.0这个环境变量。sudo systemctl edit ollama这个命令会打开一个编辑器通常是nano。在打开的文件中输入以下内容[Service] EnvironmentOLLAMA_HOST0.0.0.0然后按CtrlO保存再按CtrlX退出编辑器。这个操作创建了一个“覆盖”配置文件不会影响原始的service文件是更安全的标准做法。第二步重启Ollama服务让配置生效。sudo systemctl daemon-reload # 重新加载systemd配置 sudo systemctl restart ollama # 重启Ollama服务第三步验证Ollama是否在监听所有接口。使用netstat命令查看sudo netstat -tulpn | grep 11434或者用更现代的ss命令sudo ss -tulpn | grep 11434你希望看到的输出是tcp LISTEN 0 4096 0.0.0.0:11434 0.0.0.0:* users:((ollama,pidxxx,fdxxx))注意0.0.0.0:11434这一部分这表示服务已经在所有网络接口的11434端口上监听了。如果这里显示的是127.0.0.1:11434说明上一步配置没生效需要检查。3.3 打通网络壁垒服务器防火墙与阿里云安全组好了现在Ollama已经“打开门”了但外面还有两道“围墙”需要你打开门禁一是ECS服务器自身的防火墙二是阿里云云平台层面的安全组。服务器防火墙以Ubuntu默认的UFW为例如果你的ECS系统启用了UFWUncomplicated Firewall你需要放行11434端口。sudo ufw allow 11434/tcp sudo ufw reload # 重新加载规则 sudo ufw status verbose # 查看规则是否生效如果看到11434/tcp ALLOW Anywhere说明服务器本地的防火墙已经放行了。重中之重阿里云安全组配置。这是最关键也是最容易被忽略的一步安全组是阿里云提供的虚拟防火墙作用于ECS实例的虚拟网卡层面。即使你服务器本身的防火墙全关了安全组规则不放行外部流量依然进不来。登录阿里云控制台进入ECS实例列表。找到你正在使用的这台ECS实例点击实例ID进入详情页。在左侧菜单或实例详情中找到**“安全组”**选项并点击。你会看到实例绑定的安全组点击右侧的**“配置规则”**。这里分为入方向和出方向。我们需要添加入方向规则即允许外部访问我们的11434端口。点击**“手动添加”**按照下表填写规则规则方向授权策略协议类型端口范围授权对象优先级描述入方向允许TCP11434/114340.0.0.0/01Ollama服务端口关于“授权对象”0.0.0.0/0的说明这表示允许世界上任何IP地址访问这个端口。从安全角度这存在风险。更佳实践是如果你本地电脑的公网IP是固定的可以将其填入例如你的公网IP/32。但大多数家庭宽带是动态IP使用0.0.0.0/0是最简单的测试方法。在生产环境中建议结合VPN或云企业网等方案将访问限制在可信网络内。填写后点击确定。规则会立即生效。4. 胜利会师从本地Python环境连接云端Ollama至此云端服务器的所有配置已经完成。现在让我们回到本地电脑写一个简单的Python脚本测试这条跨越公网的“神经连接”是否畅通。4.1 准备本地Python环境首先确保你的本地电脑安装了Python3.8以上版本推荐。然后安装Ollama的Python客户端库这个库封装了与Ollama服务通信的细节用起来非常简单。pip install ollama如果安装慢可以使用国内镜像源例如pip install ollama -i https://pypi.tuna.tsinghua.edu.cn/simple。4.2 编写健壮的测试客户端直接复制文章开头那段代码当然可以但我这里想给你一个更健壮、更实用的版本。这个版本包含了更详细的错误处理和连接测试能帮你快速定位问题出在哪一环。import ollama import httpx import time def create_ollama_client(host): 创建一个配置了超时时间的Ollama客户端。 超时设置很重要避免网络不佳时程序长时间卡住。 return ollama.Client( hosthost, # 你的ECS公网IP和端口 timeouthttpx.Timeout( connect10.0, # 连接超时10秒 read300.0, # 读取超时300秒对于大模型生成长文本很必要 write30.0, # 写入超时30秒 poolNone ) ) def test_connection(client): 测试与Ollama服务器的连接是否正常 print( 正在测试与云端Ollama服务器的连接...) try: # 尝试调用一个简单的API比如列出模型 model_list client.list() print(✅ 连接成功) print(f 服务器上可用的模型有{[model[name] for model in model_list.get(models, [])]}) return True except httpx.ConnectError as e: print(f❌ 网络连接失败{e}) print( 可能的原因) print( 1. 服务器公网IP地址填写错误) print( 2. 阿里云安全组未放行11434端口) print( 3. 服务器防火墙如UFW未放行11434端口) print( 4. Ollama服务未在服务器上运行或未监听0.0.0.0) return False except Exception as e: print(f⚠️ 连接出现意外错误{e}) return False def chat_with_ollama(): # 替换成你ECS实例的公网IP地址 ECS_PUBLIC_IP 你的ECS公网IP地址 # 例如123.123.123.123 OLLAMA_SERVER_URL fhttp://{ECS_PUBLIC_IP}:11434 client create_ollama_client(OLLAMA_SERVER_URL) # 第一步测试连接 if not test_connection(client): print(连接测试失败请按上述提示检查配置。) return # 第二步开始对话 print(\n 连接成功开始与云端AI对话输入‘退出’结束) model_to_use qwen2.5:0.5b # 使用我们之前拉取的模型 while True: try: user_input input(\n你: ).strip() if user_input.lower() in [退出, exit, quit]: print(对话结束。) break if not user_input: continue print(AI正在思考...) # 发送聊天请求 response client.chat( modelmodel_to_use, messages[ {role: user, content: user_input} ] ) # 打印回复 print(f\nAI: {response[message][content]}) except httpx.ReadTimeout: print(\n⏰ 请求超时可能是模型生成时间较长或网络延迟。) retry input(是否重试(y/n): ).lower() if retry ! y: break except Exception as e: print(f\n⚠️ 请求出错{e}) # 尝试重新连接一次 print(尝试重新连接服务器...) time.sleep(2) client create_ollama_client(OLLAMA_SERVER_URL) if not test_connection(client): print(重连失败退出对话。) break if __name__ __main__: chat_with_ollama()把代码中的你的ECS公网IP地址替换成你ECS控制台里看到的那个公网IP保存为cloud_ollama_chat.py然后在本地终端运行python cloud_ollama_chat.py4.3 连接故障排查手册如果运行后没有出现“连接成功”的提示别慌这是正常的。跨公网调用涉及环节多我们一步步排错。“连接被拒绝” (Connection refused)检查1IP和端口。确认IP地址没打错端口是11434。检查2服务器Ollama服务状态。回到ECS终端执行sudo systemctl status ollama确保服务是active (running)。检查3监听地址。在ECS执行sudo ss -tulpn | grep 11434确认监听在0.0.0.0:11434而不是127.0.0.1:11434。检查4服务器防火墙。执行sudo ufw status确认有11434/tcp ALLOW规则。“连接超时” (Connection timeout)检查1阿里云安全组。这是最可能的原因请反复确认控制台安全组的入方向规则已经按照3.3节添加并保存。检查2服务器进程。在ECS上用curl http://localhost:11434/api/tags测试本地能否访问。如果失败说明Ollama服务本身有问题查看日志sudo journalctl -u ollama -f。检查3本地网络。尝试在本地电脑用telnet ECS公网IP 11434Windows或nc -zv ECS公网IP 11434Mac/Linux测试端口通不通。如果不通问题肯定出在云端配置安全组/防火墙或服务本身。连接成功但调用API出错检查模型是否存在在ECS上运行ollama list确认你调用的模型如qwen2.5:0.5b已经成功拉取并存在。检查模型名称拼写Python代码里的模型名必须和服务器上的完全一致。按照这个排查路径99%的连接问题都能解决。当你在本地终端看到AI的回复从云端传来时那种感觉是非常奇妙的——你的个人AI算力已经成功上云了。5. 进阶玩法与生产环境考量基础链路打通后我们可以玩点更花的也让这个服务更稳定、更安全。5.1 使用OpenAI兼容接口无缝接入现有生态Ollama除了自己的Python客户端还提供了与OpenAI API完全兼容的接口。这意味着所有能调用OpenAI的库、框架、应用比如LangChain、LlamaIndex、各种AI助手插件几乎无需修改就能对接你的私有Ollama服务。配置起来非常简单。在你的本地Python环境中安装OpenAI库pip install openai。然后你可以这样调用from openai import OpenAI # 关键在这里将base_url指向你的云端Ollama服务 client OpenAI( base_urlhttp://你的ECS公网IP:11434/v1, # 注意结尾是 /v1 api_keyollama, # 这个字段必填但Ollama不验证可以随便写 ) response client.chat.completions.create( modelqwen2.5:0.5b, # 你服务器上的模型名 messages[ {role: system, content: 你是一个乐于助人的助手。}, {role: user, content: 用Python写一个快速排序函数。} ], streamFalse # 设为True可以流式输出 ) print(response.choices[0].message.content)这样一来你的云端Ollama瞬间就变成了一个“私有化部署的OpenAI”。你可以基于此开发各种应用而不用担心API调用费用和网络限制。5.2 提升安全性为你的AI服务加把锁我们之前用0.0.0.0/0开放端口相当于把家门大开。对于长期运行的服务这很不安全。这里提供几个加固思路IP白名单推荐如果你有固定的办公网络IP或者公司有固定IP在阿里云安全组里将“授权对象”从0.0.0.0/0改为你的固定IP加上子网掩码例如你的公网IP/32。这样只有来自这个IP的请求才能访问。使用反向代理高级在ECS上安装Nginx或Caddy让它们监听公网比如80/443端口并通过内网将请求转发到本地的11434端口。这样你可以在反向代理层面配置SSL证书HTTPS加密、HTTP Basic认证用户名密码、甚至更复杂的鉴权。Ollama服务本身只需要绑定127.0.0.1彻底不对公网暴露。使用SSH隧道临时/开发这是一种无需修改安全组规则的方法。在本地执行ssh -L 11434:localhost:11434 root你的ECS公网IP这个命令会在你本地电脑的11434端口和云端服务器的11434端口之间建立一个加密的SSH隧道。此时你的Python客户端只需要连接http://localhost:11434流量就会通过SSH隧道安全地转发到云端。非常适合临时调试或开发阶段。5.3 性能监控与模型管理服务跑起来了怎么知道它状态好不好查看服务日志在ECS上sudo journalctl -u ollama -f可以实时查看Ollama的运行日志和错误信息。监控资源使用使用htop或nvidia-smi如果有GPU命令观察CPU、内存和GPU的使用情况判断当前模型负载。管理模型随时可以SSH到服务器上使用Ollama命令行管理模型ollama list查看已下载模型。ollama pull llama3.2:1b拉取新模型。ollama rm 模型名删除不再需要的模型释放磁盘空间。把Ollama部署到阿里云ECS从技术上看就是把一个本地工具变成了一个云服务。这个过程里最深的体会不是技术有多难而是“想清楚”比“做出来”更重要。一开始我总想着一步到位搞最安全的配置结果在反向代理和认证上卡了半天。后来才明白先粗暴地用安全组IP白名单把链路跑通获得正反馈再去迭代优化安全性这个路径对个人开发者友好得多。现在我的代码编辑器、自动化脚本甚至手机上的快捷指令都能随时调用这个云端AI那种“算力随身”的感觉确实极大地提升了效率。如果你在部署过程中遇到了我没提到的问题不妨去Ollama的GitHub仓库或社区看看那里有非常多热心的开发者在分享经验。

相关文章:

阿里云ECS实战:Ollama云端部署与跨网络本地调用全解析

1. 为什么要把Ollama放到云端?聊聊我的真实想法 你可能和我一样,最开始接触大模型都是在自己的电脑上跑。装个Ollama,拉个几B的小模型,玩玩对话,感觉挺酷。但很快,问题就来了:我的MacBook Pro风…...

Windows下利用Docker容器化技术实现多EasyConnect实例共存

1. 为什么我们需要在Windows上运行多个EasyConnect? 如果你和我一样,是个经常需要穿梭在不同项目、不同办公环境之间的打工人,那你肯定对EasyConnect这个软件又爱又恨。爱它,是因为它确实是我们连接公司内网、访问内部资源的“通行…...

从被动防御到主动免疫:IPDRR模型如何重塑企业网络安全韧性

1. 从“筑高墙”到“强免疫”:为什么你的企业安全需要一次思维升级 我见过太多企业,在安全建设上投入不菲,买最好的防火墙、最贵的入侵检测系统,安全策略文档堆起来能有一人高。但真出了事,比如一次勒索病毒攻击&#…...

HanLP 2.x 多任务模型实战:从安装到文本分析全流程

1. 为什么你需要HanLP 2.x的多任务模型? 如果你正在处理中文文本,比如想从一堆新闻里自动提取关键信息,或者给你的聊天机器人加上理解用户意图的能力,那你很可能需要一套好用的自然语言处理(NLP)工具。几年…...

LingJing(灵境)与外部虚拟机的网络穿透实战:从NAT困境到桥接畅通

1. 为什么你的反向Shell总是“失联”?从NAT困境说起 如果你和我一样,是个喜欢在本地搭建渗透测试环境的爱好者,那你肯定遇到过这个让人抓狂的场景:在LingJing(灵境)靶场里,靶机明明启动了&#…...

BEYOND REALITY Z-Image作品分享:自然光人像系列——晨光/正午/黄昏三种氛围呈现

BEYOND REALITY Z-Image作品分享:自然光人像系列——晨光/正午/黄昏三种氛围呈现 1. 引言:当光影遇见AI人像 你有没有想过,一张AI生成的人像照片,能有多真实? 不是那种一眼就能看出来的“AI感”,而是光影…...

告别“发光纸片人”:Substance 3D 与 Unity 2D URP 联动的次世代 2D 动态光照与法线手绘工作流

上周某日下午,一位担任核心技术美术的朋友,在微信上给我发了一段他们最新类银河恶魔城游戏的内部测试视频,并附带了一长串抓狂的语音。他们团队耗巨资请了顶级的二次元原画师,为游戏主角绘制了极其精美的立绘和 Spine 切片。可是&…...

人工智能混合编程实践:C++调用封装好的DLL进行PP-OCR字符识别

人工智能混合编程实践:C++调用封装好的DLL进行PP-OCR字符识别 前言 相关介绍 C++简介 ONNX简介 ONNX Runtime 简介 **核心特点** DLL 简介 **核心特点** **创建与使用** **应用场景** **优点与挑战** OCR字符识别简介 1. 核心工作原理 2. 技术演进 3. 主要应用场景 4. 当前面临…...

互联网大数据环境下 MySQL 迁移至国产底座的技术实践与路径观察

互联网大数据环境下 MySQL 迁移至国产底座的技术实践与路径观察 在当前互联网大数据应用持续深化的背景下,企业对关系型数据库的性能稳定性、安全合规性及运维可控性提出了更高要求。随着技术体系日趋成熟,金仓数据库(KingbaseES&#xff09…...

YOLOv8全网首发:CVPR2026 Transformer注意力 | BinaryAttention 1-bit注意力,推理提速100%,超越FlashAttention2

💡💡💡问题点:Transformer 已取得广泛而显著的成功,但其注意力模块的计算复杂性仍然是视觉任务的主要瓶颈。现有方法主要采用 8-bit 或 4-bit 量化来平衡效率与精度 💡💡💡措施:我们通过理论论证指出,注意力的二值化保留了基本的相似性关系,并提出了 BinaryAt…...

论文查重 / AI 率双杀攻略:Paperxie 四大降重方案实测,从 99.8% 到 14.9% 的通关密码

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/aippthttps://www.paperxie.cn/weight?type1https://www.paperxie.cn/weight?type1 前言:毕业季新噩梦 ——AI 率超标,比查重更让人崩溃的学术红线 当毕业论文终于写完&#xff…...

Highcharts React v4.2.1 正式发布:更自然的React开发体验,更清晰的数据处理

Highcharts React v4.2.1 版本正式发布了!这次更新不仅带来了错误修复和新功能,更重要的是对组件文档进行了全面重写。这体现了我们持续的努力——让使用 Highcharts 的 React 开发者能够获得更加自然、顺畅的开发体验。如果你一直在等待尝试新的集成&am…...

OpenClaw 生成测试用例

在安装完 OpenClaw 后,很多同学只会用它聊天。今天十二就带大家通过安装 Skill,让 OpenClaw 真正变成一个能理解业务、自动写用例的测试专家。 1、查找:测试用例生成Skills 全网 Skill 太多,不知道哪个生成的用例最靠谱。这里使用十二之前安装好的 find-skills 查找测试用…...

计算机毕业设计springboot数字化心理健康服务系统的设计与实现 基于SpringBoot的“树洞“心理咨询服务平台的设计与实现 基于SpringBoot的在线心理支持与智慧辅导平台

计算机毕业设计springboot数字化心理健康服务系统的设计与实现a2huw9 (配套有源码 程序 mysql数据库 论文) 本套源码可以在文本联xi,先看具体系统功能演示视频领取,可分享源码参考。近年来,心理健康问题呈直线上升趋势&#xff0c…...

DO-254通读--10.0 硬件设计生命周期数据

10.0 硬件设计生命周期数据 本节描述了在硬件设计生命周期中可能产生的硬件设计生命周期数据项,用于提供设计保证和符合审定要求的证据。审定机构作为设计保证证据所需的生命周期数据的范围、数量和详细程度将因多种因素而异。这些因素包括适用的航空系统审定机构要…...

蓝牙学习系列(一):从零认识蓝牙技术体系

目录 一、什么是蓝牙(Bluetooth) 二、蓝牙的发展版本 三、Classic Bluetooth 与 BLE 3.1 Classic Bluetooth(经典蓝牙) 3.2 BLE(Bluetooth Low Energy) 四、蓝牙设备角色 4.1 Classic Bluetooth 4.…...

成都双流整装工厂,哪家才是靠谱企业?

家人们,在成都双流找靠谱的整装工厂可真是一件让人头疼的事儿!市面上的装修公司五花八门,一不小心就容易踩坑。今天我就用自己的亲身经历,给大家好好唠唠哪家整装工厂才是真靠谱,那就是九天全屋整装!我家就…...

用python flask做了一个,批量查询,修改一堆excel文件的工具

每次要找在excel里面找文件时,都一个个打开,找半天。要修改时,一些类似的数据,又要一个个文件去修改,非常没有效率。这个工具作用就是批量查询与修改。B/S架构,读出来的excel常驻内存,注意&…...

基于LQR控制的主动悬架模型:构建平顺性仿真,涵盖多种车辆模型与源文件集

【被动/LQR主动悬架模型】采用LQR控制的主动悬架模型,选取车身加速度、悬架动挠度等参数构造线性二次型最优控制目标函数。 输入为B级随机路面激励,输出为车身垂向加速度、俯仰角加速度、悬架动挠度等平顺性评价指标,可做汽车平顺性仿真。 二…...

jQuery如何扩展百度WebUploader组件支持教育行业PPT课件的跨平台分片上传?

前端老兵的20G文件夹上传血泪史(附部分代码) 各位前端同仁们好,我是老王,一个在福建靠写代码混口饭吃的"前端民工"。最近接了个奇葩项目,客户要求用原生JS实现20G文件夹上传下载,还要兼容IE9&am…...

Android 15 深色模式:第三方应用强制适配深色模式的开关在哪里?

很多朋友在打开手机的深色模式(也叫暗黑模式)后,可能会发现一个问题:手机自己的界面和自带应用都变黑了,但很多常用的第三方软件,比如微信、淘宝或者一些银行APP,却还是亮晃晃的白色背景。这不仅…...

双向RRT算法的三维路径规划MATLAB代码:包含路径平滑处理

bi-rrt算法三维MATLAB代码 双向rrt算法的三维路径规划 加入路径的平滑处理直接打开MATLAB开整三维空间路径规划。双向RRT(Bi-RRT)这玩意儿比传统RRT快不是一点半点,核心思路就是两头长树往中间怼。咱们先看节点数据结构怎么设计: …...

“扫频法阻抗扫描验证及复现双馈风机MMC电压源型VSG阻抗建模与程序注释

扫频法 阻抗扫描 阻抗建模验证 正负序阻抗 逆变器 虚拟同步控制 VSG 复现 双馈风机MMC 电压源型VSG阻抗建模及阻抗扫描验证 虚拟同步发电机序阻抗建模 风机多端MMC 可设置扫描范围、扫描点数,附送讲解 程序附带注释,每一行都能看懂 包括vsg仿真模型&…...

【异常】OpenClaw 调用 API 限速报错 API rate limit reached. Please try again later.

一、报错内容 在使用 OpenClaw 进行接口调用时,系统返回以下报错信息: API rate limit reached. Please try again later. 同时提示当前订阅套餐已达到调用限额,需等待周期刷新或升级套餐,建议5小时后重新进行交互操作。 二、报错说明 1. 报错核心含义 本次报错的核心是…...

声源定位实战:从仿真到嵌入式落地

2022声源定位相关资料及代码 内附声源定位算法基本原理及matlab仿真原理及实现方法; stm32f4实现源码(2022电赛) 3米处水平横向精度0.013m(可优化更低)。 视频5s,无快进,mcu为stm32f429zit6。 …...

AI人脸隐私卫士实测:多人合照自动打码,效果惊艳

AI人脸隐私卫士实测:多人合照自动打码,效果惊艳 1. 引言:当合照遇上隐私,AI如何成为你的守护者? 你有没有过这样的经历?公司团建拍了张大合照,想发朋友圈分享喜悦,却要花上十几分钟…...

Vue 3 源码阅读笔记:ref.ts

文章目录一、文件概览二、核心数据结构1. Ref 接口定义三、核心函数实现1. isRef - 类型守卫2. r[ReactiveFlags.IS_REF]详解一、 r[ReactiveFlags.IS_REF] 是什么意思?二、这个标记是怎么来的?三、为什么需要这个标记?四、完整的标记系统五、…...

Java面向对象—反射

反射1、反射(Reflection):是Java被视为“动态”语言的关键,反射机制允许在执行期间借助于Reflection的API取得任何类(接口)的内部信息,并能直接操作任意对象的内部信息。2、Java反射机制主要提供了以下功能:(1&#xf…...

MATLAB高效声发射多通道数据分离与新数据集构建

matlab高效分离声发射各通道数据,构建新的数据集,亲测运行有效,小样本和大样本(百万级别)均适用,专业性和针对性强,确保运行无误可以直接最近在实验室折腾声发射数据,发现多通道采集的数据处理起来特别费劲…...

距离提交只剩3天,查重48%:毕业之家AI工具把我从延毕边缘拉了回来

毕业之家(官网https://www.biye.com)是聚焦国内高校论文全生命周期的 AI 学术服务平台,作为 PaperRed 核心合作与技术支撑方,以学术合规为核心、高效便捷为导向,打造了选题到答辩的一站式闭环服务,尤其针对…...