当前位置: 首页 > article >正文

ollama v0.22.0 发布:新增 NVIDIA Nemotron 3 Omni 与 Poolside Laguna 模型支持,推理能力再升级!

引言2026年4月29日Ollama 团队正式发布了 v0.22.0 版本。本次更新是一次意义重大的版本迭代不仅引入了两个重量级的新模型——NVIDIA 的 Nemotron 3 Omni 和 Poolside 的首个开源编码模型 Laguna XS.2还在推理控制、模型转换、量化策略、MLX 后端性能、内置解析器等多个核心模块进行了深度优化。本文将基于 v0.22.0 的完整变更日志为您详细解读本次更新的每一个技术细节帮助开发者全面理解新版本的能力边界和使用方法。一、新模型支持两大重量级模型登场1.1 NVIDIA Nemotron 3 Omniv0.22.0 引入了对 NVIDIA Nemotron 3 Omni 系列模型的原生支持。这是一个多模态模型家族在代码中对应的架构标识为nemotron_h_omni。该模型支持文本生成基于 Nemotron-H 架构的 LLM 核心视觉理解集成了 Vision TransformerViT模块支持图像输入音频处理集成了 Parakeet 音频编码器支持语音输入在转换器converter层面新增了convert/convert_nemotron_h.go和convert/convert_nemotron_h_test.go两个文件共约 700 行代码专门处理 Nemotron 系列模型的权重映射和参数转换。关键配置参数包括max_sequence_length: 131072128K 上下文vision.image_size: 512vision.patch_size: 16audio.sample_rate: 160001.2 Poolside Laguna XS.2Poolside 的首个开源权重编码模型 Laguna XS.2 也获得了完整支持。这是一个专注于代码生成和软件工程任务的模型架构标识为LagunaForCausalLM。新增的模型支持文件包括model/models/laguna/model.go约 440 行Laguna 模型的 MLX 实现convert/convert_laguna.go约 600 行GGUF 转换逻辑model/parsers/laguna.go约 500 行专用的输出解析器model/renderers/laguna.go约 110 行模板渲染器Laguna 模型采用了混合专家MoE架构支持动态稀疏层的推理优化。其配置包括逐层可变的注意力头数head_count 为数组而非固定值滑动窗口注意力sliding window模式旋转位置编码RoPE支持全维度和 SWA 两套参数二、推理控制增强新增 “max” 思考级别2.1 API 层面的变更在api/types.go中ThinkValue类型现在支持一个全新的字符串值“max”。这意味着思考级别从原来的high/medium/low三个档位扩展为四个// ThinkValue represents a value that can be a boolean or a string (high, medium, low, max)typeThinkValuestruct{Valueinterface{}}验证逻辑已同步更新casestring:returnvhigh||vmedium||vlow||vmax2.2 OpenAI 兼容接口映射在openai/openai.go中OpenAI 风格的reasoning_effort参数现在也支持max值if!slices.Contains([]string{high,medium,low,max,none},effort){returnnil,fmt.Errorf(invalid reasoning value: %s (must be \high\, \medium\, \low\, \max\, or \none\),effort)}当reasoning_effort为none时思考功能被禁用其他字符串值包括max则按原样传递。Responses API 也同步支持了maxcaselow,medium,high,max:thinkapi.ThinkValue{Value:effort}2.3 CLI 命令行支持cmd/cmd.go中的--think参数现在接受max作为合法值casehigh,medium,low,max:opts.Thinkapi.ThinkValue{Value:thinkStr}三、MLX 后端重大改进3.1 采样器历史记录优化mlxrunner: track sampler history in a fixed-size ring buffer采样器现在使用固定大小的环形缓冲区来追踪 token 历史而不是无限增长的切片。这显著降低了长时间运行时的内存占用。3.2 批量采样优化mlxrunner: batch the sampler across multiple sequences采样器现在支持批量处理多个序列将多个独立生成请求的采样操作合并为一次矩阵运算。这在处理并行请求时能大幅提升吞吐量。3.3 采样器核心重构x/mlxrunner/sample/sample.go进行了大规模重构415/-122 行主要改进包括多槽位multi-slot支持采样器现在可以管理多个独立的生成会话每个槽位有自己的历史记录和采样参数批量 Logprob 计算当多个槽位同时请求 logprobs 时一次性完成 softmax 和 log 计算TopK/TopP 采样优化使用 MLX 原生的 argpartition 操作避免显式的完整排序新增的Add(slot int, opts Options, history []int32)方法用于注册采样槽位Sample(slots []int, logits *mlx.Array)方法支持批量采样。3.4 新增 Softplus 激活函数x/mlxrunner/mlx/act.go新增了SoftplusF32函数varSoftplusF32Compile1(SoftplusF32,func(x*Array)*Array{dt:x.DType()zero:FromValue[float32](0)returnLogaddexp(x.AsType(DTypeFloat32),zero).AsType(dt)},Shapeless(),)这个函数以 float32 精度计算 softplus然后转换回原始数据类型用于 Laguna 模型的注意力门控机制。3.5 TensorRT Model Optimizer 导入支持mlx: Support NVIDIA TensorRT Model Optimizer importMLX 后端现在可以直接导入由 NVIDIA TensorRT Model Optimizer 导出的 FP8 量化模型。导入器会自动识别并处理F8_E4M3类型的张量及其配套的 scale 张量。四、Tokenizer 多正则表达式偏移处理修复tokenizer: fix multi-regex BPE offset handling这是一个重要的 bug 修复。在tokenizer/bytepairencoding.go中原来的多正则表达式匹配逻辑在处理重叠匹配时存在偏移量计算错误修复前ifoffset-m.Index!0{if!yield(string(r[:m.Index])){修复后ifoffset-m.Index!0{if!yield(string(r[offset:m.Index])){这个修复确保在使用多个正则表达式进行 BPE 预分词时每个匹配片段都是从正确的偏移位置开始提取的避免了 token 边界错位的问题。配套的测试用例TestBytePairEncodingSplitMultipleRegexpsPreservesOffsets验证了修复的正确性。五、FP8 张量支持全面增强5.1 Safetensors FP8 读取convert/reader_safetensors.go大幅更新416/-13 行新增了对 FP8 格式的完整支持支持F8_E4M3和F8_E5M2数据类型自动查找配套的 scale 张量支持*_scale_inv和*_scale两种命名读取模型配置中的compression_config.weight.block_structure获取分块大小将 FP8 张量转换为 BF16/FP32 进行后续处理5.2 GGUF 输出标记在convert/tensor.go中新增了sourceTensorKV函数用于在输出的 GGUF 文件中标记哪些张量来自 FP8 源funcsourceTensorKV(ts[]*ggml.Tensor)KV{// ...returnKV{source_quantization:hf_fp8,source_fp8_tensors:slices.Sorted(maps.Keys(sourceFP8)),}}这些元数据在后续的量化过程中会被读取用于决定哪些张量应该被量化、哪些应该保持原始精度。5.3 量化策略适配server/quantization.go新增了sourceFP8Tensors跟踪typequantizeStatestruct{// ...preserveSourceFP8ToQ8boolpreserveSourceQ4boolsourceFP8Tensorsmap[string]struct{}}当用户请求Q8_0量化时只有来自 FP8 源的张量会被量化其他 BF16 张量保持原样。当用户请求Q4_K_M或Q4_K_S时非 FP8 源张量被提升到Q8_0以保护精度。六、Nemotron-3-Nano 解析器增强model/parsers/nemotron3nano.go进行了多项改进6.1 前导空格处理新增skipThinkingLeadingWS标志用于跳过思考内容开头的空白字符。当解析器处于Nemotron3NanoCollectingThinking状态时会 trim 掉 buffer 中的所有前导空格。6.2 开标签边界情况修复新增stripOpeningThinkTag()方法处理think标签跨 chunk 传输的场景。当 buffer 中的内容与think标签有部分重叠时解析器会等待完整标签到达后再进行处理。测试用例TestNemotron3NanoParser_Streaming/leading_open_think_tag_split_across_chunks验证了此场景。6.3 空思考块处理现在解析器能够正确处理think/think这样的空思考块直接跳过而不产生空内容。七、渲染器改进7.1 Nemotron-3-Nano 渲染器model/renderers/nemotron3nano.go进行了大规模重构263/-34 行主要变更包括工具调用格式修正函数调用输出格式调整为 XML 风格与模型的训练数据对齐思考标签处理历史消息中的 thinking 内容被正确包裹在think/think标签中截断策略对于历史中较早的 assistant 消息只保留工具调用结果而裁剪思考内容节省上下文空间7.2 Laguna 渲染器新增的LagunaRenderer实现了 Laguna 模型的对话模板使用〈|EOS|〉作为 BOS 标记系统消息中包含思考模式指令工具调用格式为tool_callarg_keyarg_value的结构用户消息包裹在user标签中助手消息包裹在assistant标签中7.3 Renderer/Detect 自动匹配在server/create.go中模型创建时会根据架构自动设置默认的渲染器和解析器caselaguna:config.Renderercmp.Or(config.Renderer,laguna)config.Parsercmp.Or(config.Parser,laguna)casenemotron_h,nemotron_h_moe,nemotron_h_omni:config.Renderercmp.Or(config.Renderer,nemotron-3-nano)config.Parsercmp.Or(config.Parser,nemotron-3-nano)八、Poolside 集成8.1 新的 launch 集成cmd/launch/poolside.go新增了对 Poolside CLI 工具的支持。用户可以通过以下命令使用ollama launch pool ollama launch pool--modelkimi-k2.6:cloud ollama launch pool ----help8.2 环境变量自动配置集成会自动设置以下环境变量POOLSIDE_STANDALONE_BASE_URL: 指向 Ollama 的 OpenAI 兼容端点POOLSIDE_API_KEY: 设置为ollama8.3 Windows 平台保护由于 Poolside 目前不兼容 Windows在 Windows 系统上该集成会被自动隐藏调用时会返回明确的错误提示。文档更新新增docs/integrations/poolside.mdx包含安装和使用说明。九、Safetensors 导入增强9.1 新增数据类型支持x/create/dtype.go新增了 FP8 和 U8/I8 类型的尺寸定义caseU8,I8:return1,nilcaseF8_E4M3,F8_E5M2,F8_E4M3FN,F8_E5M2FNUZ:return1,nil9.2 Laguna 专用导入转换器新增x/create/laguna.go实现了 Laguna 模型的特殊导入逻辑路由专家权重识别通过.mlp.experts.路径识别 MoE 层的路由专家NVFP4 导入优化当请求nvfp4量化时down_proj权重被保留为mxfp8格式以保持精度量化决策路由专家参与量化共享专家和注意力层保持 BF169.3 导入能力推断x/create/client/create.go中的inferSafetensorsCapabilities函数现在会参考解析器的能力如果解析器支持工具调用则添加tools能力如果解析器支持思考则添加thinking能力十、Logprobs 与内置解析器兼容性server: preserve generate logprobs with builtin parsers这是一个重要的用户体验修复。之前当使用内置解析器如 Nemotron-3-Nano 或 Laguna 解析器时生成响应中的 logprobs 会被丢弃因为解析器会缓冲内容直到检测到完整的语义单元。修复后在server/routes.go的 GenerateHandler 中ifbuiltinParser!nil{// Emit chunks that carry logprobs even if the parser is still bufferingifres.Response!||res.Thinking!||res.Done||len(res.ToolCalls)0||len(res.Logprobs)0{ch-res}}现在只要 chunk 中包含 logprobs即使没有新的文本内容也会被发送给客户端。配套测试TestGenerateLogprobsWithBuiltinParser验证了此功能。十一、架构兼容性标记11.1 强制单并行请求在server/sched.go中nemotron_h_omni被加入到了需要强制num_parallel 1的架构列表中ifslices.Contains([]string{...,nemotron_h,nemotron_h_moe,nemotron_h_omni},req.model.Config.ModelFamily)numParallel!1{numParallel1}这是因为多模态模型和 MoE 结构在并行处理时存在状态同步问题。11.2 FlashAttention 支持fs/ggml/ggml.go中nemotron_h_omni被加入了启用 FlashAttention 的架构列表casenemotron_h,nemotron_h_moe,nemotron_h_omni:// FlashAttention enabled十二、Harmony 后端适配server/routes.go和server/routes.go中的shouldUseHarmony逻辑进行了调整当think.Value为字符串max时在传递给 Harmony 后端之前映射为highHarmony 的 Parser 只在未显式配置时才设置为harmony这确保了 Harmony 后端在接收到max思考级别时不会报错。十三、MLX 图像生成兼容性x/imagegen/safetensors/safetensors.go中新增了 FP8 数据类型的映射caseF8_E4M3,F8_E5M2,F8_E4M3FN,F8_E5M2FNUZ:returnmlx.DtypeUint8// FP8 types stored as raw uint8 bytes这为未来在 MLX 后端支持 FP8 图像生成模型奠定了基础。十四、代码统计总览本次更新共涉及14 个 commits90 个文件变更5 位贡献者13,915 行代码新增-1,190 行代码删除主要变更模块分布convert/: 1,500 行FP8 支持 Nemotron/Laguna 转换model/models/: 2,800 行Laguna Nemotron Omni 模型实现x/mlxrunner/: 1,200 行采样器重构 Pipeline 优化x/create/: 900 行Laguna 导入 Safetensors 增强cmd/launch/: 200 行Poolside 集成十五、升级建议15.1 兼容性说明所有 v0.22.0 之前创建的模型均可继续使用新版本生成的 GGUF 文件与旧版本不兼容由于新增了source_quantization等 KV 元数据Windows 平台的 Poolside 集成暂不可用15.2 推荐使用场景需要更强推理能力的应用使用think: max级别调用 Nemotron 或 Laguna 模型多模态应用Nemotron 3 Omni 支持图文语音输入代码生成场景Poolside Laguna 专为代码任务训练高吞吐量场景升级后 MLX 后端的批量采样能力可提升 2-3 倍15.3 量化建议对于从 FP8 源导入的模型使用Q8_0量化可获得最佳精度保持使用Q4_K_M时路由专家使用 Q4注意力层使用 Q8使用Q4_K_S时浅层专家的 down_proj 使用 Q5结语代码地址github.com/ollama/ollamaOllama v0.22.0 是一次功能密集、质量优先的版本发布。NVIDIA 和 Poolside 两大模型的支持极大地扩展了 Ollama 的应用边界而 MLX 后端的采样器重构、FP8 导入的完善、以及解析器/渲染器的增强都体现了项目对生产级稳定性和用户体验的重视。

相关文章:

ollama v0.22.0 发布:新增 NVIDIA Nemotron 3 Omni 与 Poolside Laguna 模型支持,推理能力再升级!

引言 2026年4月29日,Ollama 团队正式发布了 v0.22.0 版本。本次更新是一次意义重大的版本迭代,不仅引入了两个重量级的新模型——NVIDIA 的 Nemotron 3 Omni 和 Poolside 的首个开源编码模型 Laguna XS.2,还在推理控制、模型转换、量化策略、…...

Zotero PDF Translate:学术文献跨语言阅读的终极革命性方案

Zotero PDF Translate:学术文献跨语言阅读的终极革命性方案 【免费下载链接】zotero-pdf-translate Translate PDF, EPub, webpage, metadata, annotations, notes to the target language. Support 20 translate services. 项目地址: https://gitcode.com/gh_mir…...

2026-04-30:交替删除操作后最后剩下的整数。用go语言,给定一个整数 n,把 1 到 n 依次排成一行。之后反复进行两种删数方式,并且这两种方式交替使用,先用第一种,再用第二种,一直持续到只剩

2026-04-30:交替删除操作后最后剩下的整数。用go语言,给定一个整数 n,把 1 到 n 依次排成一行。之后反复进行两种删数方式,并且这两种方式交替使用,先用第一种,再用第二种,一直持续到只剩下一个…...

车载C#中控实时通信“黑盒”深度拆解:Wireshark抓包+ETW事件追踪+CANoe仿真三重验证(附独家诊断工具链)

更多请点击: https://intelliparadigm.com 第一章:车载C#中控系统实时通信 在现代智能座舱架构中,C# 依托 .NET 6 和 Windows IoT / Automotive OS 运行时,已成为高可靠性车载中控系统的核心开发语言。实时通信能力直接决定人机交…...

PyTorch 2.8深度学习镜像实战教程:RTX 4090D一键部署大模型推理环境

PyTorch 2.8深度学习镜像实战教程:RTX 4090D一键部署大模型推理环境 1. 为什么选择这个镜像 如果你正在寻找一个开箱即用的深度学习环境,这个基于RTX 4090D优化的PyTorch 2.8镜像可能是你的理想选择。它不仅预装了最新版本的PyTorch和CUDA 12.4&#x…...

异步流内存泄漏与死锁频发?C# 13新增IAsyncEnumerator.DisposeAsync()深度解析,含.NET 8.0.3 Runtime源码级验证

更多请点击: https://intelliparadigm.com 第一章:C# 13异步流并发控制的演进背景与核心挑战 随着微服务架构与实时数据管道的普及,传统 IAsyncEnumerable 在高吞吐、多消费者场景下暴露出显著瓶颈:缺乏细粒度的并发节流、无法动…...

Qwen3-4B-Thinking-Gemini-Distill行业落地:教育科技公司AI助教系统集成实践

Qwen3-4B-Thinking-Gemini-Distill行业落地:教育科技公司AI助教系统集成实践 1. 模型概述与教育场景价值 Qwen3-4B-Thinking-2507-Gemini-Distill是一款专为教育场景优化的AI推理模型,基于阿里千问3官方思考版(Qwen3-4B-Thinking-2507&…...

Docker AI Toolkit 2026正式版深度拆解:实测LLM本地推理提速217%,这4个隐藏配置90%用户从未启用

更多请点击: https://intelliparadigm.com 第一章:Docker AI Toolkit 2026正式版发布背景与核心定位 随着大模型本地化推理、边缘AI部署及MLOps流水线标准化需求激增,Docker官方联合Hugging Face、ONNX Runtime与NVIDIA NGC团队,…...

MySQL异步复制之GTID学习笔记

第一部分:GTID概述1.1 背景与概念背景:MySQL任何复制方式都是基于binlog方式进行的。从MySQL 5.6开始增加了GTID(Global Transaction ID,全局事务ID)特性,作为传统基于二进制日志位置复制的替代方案。GTID的…...

AI教材生成新趋势:低查重率,快速编写50万字专业教材不是梦!

整理教材中的知识点确实是一项“精细活”,关键在于如何实现平衡与连接!往往有两大难题需要解决:一方面是担心关键知识点的遗漏,另一方面则是难以掌握合适的难度层次——小学的教材常常写得深奥,学生难以理解&#xff1…...

保姆级图解:Linux DRM驱动里TTM内存管理到底是怎么玩的?从申请到缺页全流程拆解

从零拆解Linux DRM驱动中的TTM内存管理:一次显存申请的全景之旅 想象你是一名刚接触GPU驱动开发的工程师,面对"申请4MB显存"这样看似简单的需求,却被告知需要理解TTM、BO、resource等一系列抽象概念。这就像第一次走进陌生的城市&a…...

HTML转Figma设计:打破网页与设计稿的次元壁

HTML转Figma设计:打破网页与设计稿的次元壁 【免费下载链接】figma-html Convert any website to editable Figma designs 项目地址: https://gitcode.com/gh_mirrors/fi/figma-html 你是否曾经盯着一个精美的网站页面,心想"这设计真不错&am…...

音乐格式壁垒终结者:Unlock Music的技术突围与用户体验革命

音乐格式壁垒终结者:Unlock Music的技术突围与用户体验革命 【免费下载链接】unlock-music 在浏览器中解锁加密的音乐文件。原仓库: 1. https://github.com/unlock-music/unlock-music ;2. https://git.unlock-music.dev/um/web 项目地址: …...

Windows Defender Remover终极指南:如何安全彻底移除系统自带杀毒软件

Windows Defender Remover终极指南:如何安全彻底移除系统自带杀毒软件 【免费下载链接】windows-defender-remover A tool which is uses to remove Windows Defender in Windows 8.x, Windows 10 (every version) and Windows 11. 项目地址: https://gitcode.com…...

互联网大厂 Java 求职面试:从 Spring Boot 到微服务的技术探讨

互联网大厂 Java 求职面试:从 Spring Boot 到微服务的技术探讨 在这个互联网高速发展的时代,Java 开发者面临着越来越多的面试挑战。今天,我们将通过一个搞笑又严肃的面试场景,来看看燕双非是如何应对面试官的提问的。第一轮提问 …...

分子动力学模拟与机器学习势能:PyTorch与LAMMPS集成指南

1. 分子动力学模拟与机器学习势能概述分子动力学(Molecular Dynamics, MD)模拟是计算化学和材料科学领域的核心工具,它通过数值求解牛顿运动方程,模拟原子和分子在特定条件下的运动轨迹。这种方法能够揭示材料在微观尺度上的动态行…...

抖音视频采集的技术挑战与douyin-downloader架构深度解析

抖音视频采集的技术挑战与douyin-downloader架构深度解析 【免费下载链接】douyin-downloader A practical Douyin downloader for both single-item and profile batch downloads, with progress display, retries, SQLite deduplication, and browser fallback support. 抖音…...

2026年AI投资转向产业落地,产业集群成商业化“最短路径”

1. AI投资逻辑转向产业落地对投资人来说,投AI已经从关注模型、团队和故事,转为考察企业能否嵌进真实产业系统,能否借助一个区域的供应链、场景和数据完成落地;对企业而言,做AI也不再只是打造一个技术产品,而…...

从Windows到Mac:手把手教你远程/接力完成Unity iOS打包(无需Mac常驻)

从Windows到Mac:高效完成Unity iOS打包的跨平台工作流 对于习惯使用Windows进行Unity开发的团队来说,iOS打包环节往往成为工作流中的瓶颈。本文将分享一套经过实战验证的跨平台协作方案,帮助开发者在不依赖常驻Mac设备的情况下,实…...

告别龟速下载!用FFmpeg命令行高效抓取M3U8视频的3种实战姿势(附加速参数)

告别龟速下载!用FFmpeg命令行高效抓取M3U8视频的3种实战姿势(附加速参数) 在视频处理领域,FFmpeg堪称瑞士军刀般的存在。但很多开发者在使用它下载M3U8视频时,常常遇到速度慢、不稳定甚至中途失败的问题。这就像开着一…...

4-5月毕业季嘎嘎降AI主推:降重降AI一起做拆开买8元/千字省一半!

4-5 月对毕业生意味着什么?意味着论文进入终稿阶段答辩季期刊投稿高峰学位审核——降 AI 需求最集中也最焦虑的时间。 嘎嘎降AI 4-5 月主推的"降重降 AI 一起做"组合服务是针对这个时间窗口的针对性产品设计。这篇文章从毕业季的真实双重检测需求、组合服…...

霍尼韦尔57-0000-11 X 射线管 30KV,15W,铜靶

霍尼韦尔57-0000-11 X射线管参数解析霍尼韦尔(Honeywell)57-0000-11 型 X射线管是一种常见的工业用X射线源,专为无损检测、材料分析等应用设计。下面我将逐步解释您提供的参数(30kV、15W、铜靶),帮助您理解…...

用过嘎嘎降AI才发现:降AI双引擎跨AIGC平台一致性这样设计!

很多 2026 届毕业生今年都被同一件事困扰——论文一字没改,去年查 AI 率 18% 能过的,今年再查直接飙到 30% 以上。 不是论文变了,是知网的 AIGC 检测算法升级到 v2.13 了。这个升级直接淘汰了一批早期的低技术工具,也让"降A…...

大语言模型推理因果审计:方法与工程实践

1. 项目概述:LLM推理因果审计的必要性在金融风险评估和医疗诊断等高价值决策场景中,大语言模型(LLM)的推理过程正逐渐取代传统决策系统。然而,2026年MIT的一项研究表明,78%的部署案例存在"推理剧场&qu…...

基于Go的Discord机器人框架golembot:模块化设计与实战开发指南

1. 项目概述:一个基于Go的Discord机器人框架最近在折腾Discord社区管理工具,发现很多现成的机器人要么功能臃肿,要么定制性太差。直到我遇到了0xranx/golembot这个项目,它不是一个开箱即用的成品机器人,而是一个用Go语…...

3D部件分割新突破:SegviGen框架的生成式着色技术

1. 项目概述:3D部件分割的技术挑战与SegviGen的创新思路在3D内容创作和工业设计领域,精确的部件级分割一直是个核心难题。想象一下,当你需要将一个复杂的3D模型分解成可独立编辑的部件时——比如将汽车模型拆解为车门、轮胎、引擎盖等组件——…...

【Qt】Qt窗口(一)窗口概览,QMenuBar菜单栏的使用

小编个人主页详情<—请点击 小编个人gitee代码仓库<—请点击 Qt系列专栏<—请点击 倘若命中无此运&#xff0c;孤身亦可登昆仑&#xff0c;送给屏幕面前的读者朋友们和小编自己! 目录前言一、窗口概览二、菜单栏的使用菜单栏的介绍MainWindow窗口和Widget窗口的区别使…...

Creality Sermoon S1双模3D扫描仪开箱与核心技术解析

1. Creality Sermoon S1高端3D扫描仪开箱与规格解析作为一名长期关注3D打印和数字化建模的技术爱好者&#xff0c;最近我有幸拿到了Creality最新推出的Sermoon S1混合式3D扫描仪。这款设备集成了蓝光激光线和红外结构光两种扫描模式&#xff0c;官方标称精度高达0.02mm&#xf…...

08-5084-03 P/S 28V 输入 30 KV 输出总成

孙136-6506-88121. 产品概述型号含义&#xff1a;08-5084-03 是霍尼韦尔的特定部件编号。其中&#xff1a;“P/S” 通常表示“电源”&#xff08;Power Supply&#xff09;&#xff0c;表明这是一个电源转换设备。“28V 输入” 指输入电压为28伏特直流&#xff08;DC&#xff0…...

魔音漫创源码解析:架构总览:Electron 30 + React 18 + Zustand,构建桌面级影视生产工具

在 AI 影视创作领域&#xff0c;如何将散乱的剧本解析、角色建模、场景生成和视频渲染整合进一个流畅的生产线&#xff0c;是所有开发者面临的挑战。开源项目 魔音漫创 (moyin-creator) 给出了一份高分答卷。本文将深入其源码&#xff0c;解析其基于 Electron 30、React 18 和 …...