当前位置: 首页 > article >正文

VSCode大模型插件开发全栈手册(2026新版SDK深度解析):支持Ollama/DeepSeek/Qwen3本地部署的唯一权威文档

更多请点击 https://intelliparadigm.com第一章VSCode 2026大模型插件开发全景概览VSCode 2026 版本深度整合了大语言模型LLM原生支持能力通过全新 vscode-lm 核心 API 层统一管理模型推理、上下文切片、流式响应与本地缓存策略。开发者不再依赖 Webview 模拟或外部服务代理可直接在 Extension Host 中调用 lm.inference() 进行低延迟语义操作。核心开发范式演进声明式模型注册通过package.json的aiModels字段预定义本地/远程模型端点上下文感知提示工程支持editor、selection、git-diff等语义指令自动注入上下文沙箱化执行环境所有 LLM 调用默认运行于隔离的 WASM-based Runtime保障安全与可观测性快速启动示例// extension.ts —— 注册一个代码补全增强插件 import * as vscode from vscode; import { lm } from vscode-lm; export function activate(context: vscode.ExtensionContext) { const provider vscode.languages.registerCompletionItemProvider( typescript, { provideCompletionItems: async (document, position) { const text document.getText(); // 获取当前文档全文 const response await lm.inference({ model: codellama-7b-local, // 已在 settings.json 中配置路径 prompt: Complete TypeScript function body for:\n${text.slice(-200)}, stream: false }); return [new vscode.CompletionItem(response.text, vscode.CompletionItemKind.Snippet)]; } }, {, [ ); context.subscriptions.push(provider); }主流模型兼容性对照表模型类型本地部署支持流式响应Token 缓存策略Phi-4-mini✅GGUF 量化✅LRU AST-awareQwen2.5-Coder✅via llama.cpp✅AST-rooted sliding windowGPT-4o-mini (API)❌仅云端✅SSE基于会话 ID 的加密缓存第二章VSCode 2026新版SDK核心架构与初始化实践2.1 SDK v3.0运行时生命周期与Extension Host演进核心生命周期阶段SDK v3.0 将 Extension Host 运行时划分为四个不可逆阶段Initializing → Ready → Activating → Running。相比 v2.x 的双态模型新增 Activating 阶段以支持按需激活与依赖预检。Extension Host 架构升级进程模型由单进程托管升级为隔离 Worker 主 Host 协同架构通信机制基于 MessagePort 替代旧版 postMessage 字符串序列化关键初始化代码片段export class ExtensionHost { private state: Initializing | Ready | Activating | Running Initializing; async initialize(): Promise { await this.loadCoreServices(); // 加载服务注册表 this.state Ready; // 状态跃迁不可回退 } }该代码强制状态机语义state 仅单向推进loadCoreServices() 完成后即进入 Ready为后续插件激活提供服务契约保障。版本启动耗时ms内存占用MBv2.8420186v3.02951422.2 基于TypeScript 5.8的插件入口设计与上下文注入机制统一入口类型契约TypeScript 5.8 的 satisfies 操作符强化了插件入口的类型安全校验export const plugin { name: logger, setup: (ctx) { /* ... */ }, dependencies: [core] } satisfies PluginDefinition;该写法确保 plugin 对象严格符合 PluginDefinition 接口避免运行时隐式类型漂移ctx 参数由宿主在调用时注入含 config、events 和 services 三类上下文能力。上下文注入生命周期初始化阶段宿主解析插件元数据并预置共享服务实例挂载阶段按依赖拓扑序调用 setup()传入只读 PluginContext卸载阶段触发 teardown()若定义释放上下文引用2.3 新一代WebviewPanel API与沙箱化渲染实践沙箱化核心约束启用沙箱后WebView 默认禁用 Node.js 集成、脚本执行及 DOM API 访问。需显式配置白名单const panel vscode.window.createWebviewPanel( demo, Demo, vscode.ViewColumn.One, { enableScripts: true, enableCommandUris: true, localResourceRoots: [vscode.Uri.file(path.join(context.extensionPath, media))], retainContextWhenHidden: true, // 关键启用沙箱并允许安全上下文 sandboxOptions: { strict: true } } );sandboxOptions.strict启用 Chromium 严格沙箱模式强制隔离渲染进程enableScripts必须为true才能加载内联/外部 JS但所有脚本均运行于无 Node 环境的独立上下文。通信机制对比机制安全性适用场景postMessage onDidReceiveMessage✅ 高序列化隔离结构化数据双向传递command URI⚠️ 中需 URI 白名单触发命令式操作如打开文件2.4 模型服务抽象层ModelService Abstraction Layer接口契约解析模型服务抽象层通过统一接口屏蔽底层推理引擎如 ONNX Runtime、Triton、vLLM的差异核心契约定义为 ModelService 接口。核心方法契约Load(modelPath string, config *ModelConfig) error按配置加载模型支持热重载语义Infer(ctx context.Context, req *InferenceRequest) (*InferenceResponse, error)标准同步推理入口请求/响应结构字段类型说明inputs[]Tensor支持多输入张量含 shape/dtype/name 元信息parametersmap[string]string运行时覆盖参数如 temperature、max_tokensGo 接口定义示例// ModelService 定义模型服务的最小可行契约 type ModelService interface { Load(modelPath string, config *ModelConfig) error Infer(ctx context.Context, req *InferenceRequest) (*InferenceResponse, error) Health() map[string]any // 健康状态透出 }该接口强制实现方封装设备绑定、内存池管理与序列化逻辑config参数包含Device: cuda:0和BatchSize: 8等关键调度策略确保跨平台行为一致。2.5 插件性能度量体系启动耗时、内存驻留、LLM调用延迟埋点实战核心埋点三维度设计启动耗时从插件加载到 ready 状态的毫秒级采样内存驻留常驻内存峰值RSS与增量ΔHeap双指标LLM调用延迟含请求序列化、网络往返、响应解析全链路计时。启动耗时埋点代码示例const start performance.now(); plugin.on(ready, () { const duration performance.now() - start; telemetry.record(plugin.start_ms, { pluginId, duration }); });该代码利用高精度 performance.now() 获取毫秒级启动耗时telemetry.record 将结构化指标上报至中心化监控平台pluginId 用于多插件维度下钻分析。关键指标对比表指标采集方式告警阈值启动耗时Performance API800ms内存驻留process.memoryUsage()120MBLLM延迟axios.interceptors.request/response3.2s第三章多后端模型集成Ollama/DeepSeek/Qwen3本地部署统一适配3.1 Ollama v0.5.x REST API深度封装与流式响应零拷贝处理流式响应的内存优化关键Ollama v0.5.x 的/api/chat接口默认返回 text/event-stream传统 io.Copy 易引发多次内存拷贝。零拷贝需直接绑定 http.ResponseWriter 的底层 bufio.Writer。func streamHandler(w http.ResponseWriter, r *http.Request) { w.Header().Set(Content-Type, text/event-stream) w.Header().Set(Cache-Control, no-cache) f, ok : w.(http.Flusher) if !ok { panic(streaming unsupported) } // 直接复用响应体 writer避免 []byte 中转 writer : bufio.NewWriter(w) defer writer.Flush() // ... 向 writer.Write() 写入 SSE 格式数据 }该实现跳过 bytes.Buffer 中间层将模型 token 流直写至 TCP socket 缓冲区降低 GC 压力与延迟。核心参数对照表参数作用v0.4.x 兼容性stream启用 SSE 流式输出✅format指定 JSON 或 raw token 输出格式 v0.5.x 新增3.2 DeepSeek-VL与DeepSeek-Coder双模式本地推理协议桥接实现协议统一抽象层通过定义共享的InferenceRequest结构体桥接视觉理解与代码生成两类任务的输入语义type InferenceRequest struct { ModelType string json:model_type // vl or coder InputData []byte json:input_data // base64-encoded image or source code Context string json:context // optional textual context Params map[string]any json:params }该结构支持运行时动态路由ModelType字段驱动后端分发至对应模型实例Params保留各模式特有超参如VL的max_pixels、Coder的max_new_tokens。跨模态会话状态同步使用内存映射文件实现进程间低延迟状态共享会话ID绑定双模型token缓存与KV cache生命周期推理协议转换表VL原始字段Coder等效字段转换逻辑image_urlprompt_prefixBase64解码CLIP预处理→嵌入向量拼接caption_tasktask_hint映射为generate_docstring等标准化指令3.3 Qwen3-14B GGUF量化模型加载器与Tokenizer同步对齐策略加载器与Tokenizer的版本绑定机制Qwen3-14B GGUF模型要求Tokenizer必须严格匹配其训练时的tokenizer.json与vocab.bin版本。任何哈希不一致将触发RuntimeError: tokenizer mismatch detected。关键对齐参数表参数作用校验方式gguf_context-metadata[tokenizer.hf_name]标识Hugging Face原始Tokenizer名称字符串全等比对tokenizer.model_max_length控制输入序列截断长度与GGUF中llama.context_length联动校验同步初始化代码示例from llama_cpp import Llama llm Llama( model_pathqwen3-14b.Q5_K_M.gguf, tokenizer_pathtokenizer.json, # 显式指定避免自动发现偏差 n_ctx8192, verboseFalse )该调用强制加载指定Tokenizer路径并在内部执行tokenizer.vocab_size gguf_vocab_size断言若不匹配立即抛出ValueError并附带差异摘要。第四章智能交互能力构建从代码理解到自主Agent协同4.1 AST感知型代码摘要生成基于Tree-Sitter 0.24语法树的上下文裁剪上下文裁剪核心逻辑AST感知型摘要生成不遍历整棵树而是依据节点语义权重与作用域边界动态裁剪。Tree-Sitter 0.24 提供ts_node_child_by_field_name()和ts_node_is_named()等关键API支持精准定位声明体、控制流主体与表达式根节点。// 获取函数体节点忽略参数列表和修饰符 TSTree *tree ts_parser_parse_string(parser, NULL, src, len, NULL); TSNode root ts_tree_root_node(tree); TSNode func find_first_named_descendant_by_type(root, function_definition); TSNode body ts_node_child_by_field_name(func, body, strlen(body));该代码提取函数定义中的body字段节点跳过签名部分确保摘要聚焦可执行逻辑。参数func必须为命名节点ts_node_is_named() true否则字段查找失败。裁剪策略对比策略保留节点类型裁剪率平均全AST遍历全部0%声明控制流function_definition, if_statement, for_statement62%仅主体表达式return_statement, binary_expression79%4.2 多轮对话状态机Conversation State Machine与历史缓存LRU优化状态机核心设计对话状态机将用户会话建模为五种原子状态Idle、IntentRecognized、SlotFilling、Confirmed、Failed。状态迁移由意图置信度与槽位完备性联合驱动。LRU缓存实现// LRU缓存支持并发读写容量固定为1000 type ConversationCache struct { cache *lru.Cache mu sync.RWMutex } func NewConversationCache() *ConversationCache { return ConversationCache{ cache: lru.New(1000), // 最大条目数超出自动淘汰最久未用项 } }该实现利用 github.com/hashicorp/golang-lru 库New(1000) 表示缓存上限键为会话IDstring值为 *ConversationState 结构体自动维护访问时序。性能对比毫秒级响应缓存策略平均延迟命中率无缓存86.20%LRU-10003.192.7%4.3 本地RAG增强VSCode工作区向量索引构建与HyDE查询重写实践向量索引构建流程使用chroma在本地构建工作区语义索引关键步骤如下from chromadb import PersistentClient from langchain_chroma import Chroma from langchain_openai import OpenAIEmbeddings client PersistentClient(path./.vscode/.rag_index) vectorstore Chroma( clientclient, embedding_functionOpenAIEmbeddings(modeltext-embedding-3-small), collection_nameworkspace_docs )该代码初始化持久化向量库path指向 VSCode 工作区隐藏目录确保索引与项目生命周期绑定model参数平衡精度与本地推理开销。HyDE 查询重写示例原始用户提问“怎么在 extension.ts 里注册命令”HyDE 生成假设性文档“Extension activation via registerCommand in activate() function”嵌入该文档并检索最相关代码片段性能对比本地索引 vs 远程API指标本地RAG远程API调用平均延迟120ms1850ms离线可用✓✗4.4 Agent工具调用框架Shell命令执行、Git操作封装与调试器API联动统一工具执行接口设计Agent通过抽象层统一封装外部工具调用屏蔽底层差异。核心接口支持超时控制、上下文隔离与结构化输出解析type ToolExecutor interface { Execute(ctx context.Context, cmd string, args []string, env map[string]string) (stdout, stderr string, exitCode int, err error) }参数说明ctx 控制生命周期cmd 为可执行路径如/bin/sh或gitenv 隔离环境变量避免污染。Git操作安全封装基于go-git库实现无依赖 Git 操作关键能力包括分支校验、提交签名验证与工作区快照自动检测当前仓库状态拒绝在脏工作区执行危险操作强制使用--no-gpg-sign策略保障调试阶段可追溯性调试器API协同机制调试事件触发动作关联工具BreakpointHit自动执行git diff HEADGit封装器StepInto调用sh -c ls -l /proc/$PID/fdShell执行器第五章工程化交付与生态演进路线现代云原生交付已从单点工具链走向平台化协同。以某头部金融科技团队为例其基于 Argo CD Tekton OpenPolicyAgent 构建的 GitOps 流水线将平均发布周期从 4.2 天压缩至 11 分钟且策略即代码Policy-as-Code覆盖全部生产环境准入检查。可复用的交付契约模板采用 OpenAPI 3.1 定义服务交付接口契约包含 SLA、可观测性探针路径、健康检查语义通过 Conftest 集成 CI 流程自动校验 Helm Chart values.yaml 是否符合组织级安全基线渐进式生态升级路径阶段核心能力典型组件替换稳态交付灰度发布回滚验证Nginx Ingress → Istio Gateway智态演进流量画像驱动的弹性扩缩KEDA → 自研 AdaptiveScaler策略驱动的部署验证func ValidateDeployment(ctx context.Context, dep *appsv1.Deployment) error { // 检查容器是否启用非 root 运行 if !*dep.Spec.Template.Spec.SecurityContext.RunAsNonRoot { return errors.New(security: RunAsNonRoot must be true) } // 强制要求 livenessProbe 路径为 /healthz if dep.Spec.Template.Spec.Containers[0].LivenessProbe.HTTPGet.Path ! /healthz { return errors.New(liveness probe path must be /healthz) } return nil }

相关文章:

VSCode大模型插件开发全栈手册(2026新版SDK深度解析):支持Ollama/DeepSeek/Qwen3本地部署的唯一权威文档

更多请点击: https://intelliparadigm.com 第一章:VSCode 2026大模型插件开发全景概览 VSCode 2026 版本深度整合了大语言模型(LLM)原生支持能力,通过全新 vscode-lm 核心 API 层统一管理模型推理、上下文切片、流式响…...

基于LoRA与RLHF的大语言模型高效微调实战指南

1. 项目概述:当羊驼遇上人类反馈强化学习最近在开源社区里,一个名为“jackaduma/Vicuna-LoRA-RLHF-PyTorch”的项目引起了我的注意。乍一看这个标题,它像是一串技术术语的堆砌,但如果你拆解一下,会发现它精准地指向了当…...

智能体工程框架learnship:告别AI编程健忘症,实现结构化协作

1. 项目概述:从“氛围编程”到“智能体工程”的范式转变如果你和我一样,在过去一年里深度使用过 Claude Code、Cursor 或者 Windsurf 这类 AI 编程助手,那你一定经历过这种熟悉的挫败感:昨天刚和 AI 花了两个小时敲定的架构决策&a…...

手把手教你用PyTorch实现GQA(附代码),理解Llama 2的加速秘诀

从零实现GQA:用PyTorch拆解Llama 2的注意力优化艺术 当你在深夜调试Transformer模型时,是否曾被显存不足的报错打断思路?或是看着推理时缓慢增长的进度条感到焦虑?2023年Meta推出的Llama 2选择GQA作为其注意力机制绝非偶然——这种…...

保姆级教程:用Python复现CVPR 2018视频异常检测经典算法(附代码)

从理论到代码:手把手实现CVPR 2018视频异常检测算法 监控摄像头每天产生海量视频数据,但人工监控效率低下且成本高昂。2018年CVPR会议上提出的《Real-world Anomaly Detection in Surveillance Videos》为解决这一问题提供了创新思路。本文将带您从零开始…...

Linux TCP 协议深度解析:从状态机到拥塞控制

引言TCP(传输控制协议)是互联网的基石协议之一。它提供了面向连接、可靠、基于字节流的传输服务。与UDP的简单封装不同,TCP通过复杂的机制保证了数据在网络中传输的可靠性。本文将从TCP的核心特性出发,深入讲解连接状态机、三次握…...

Translumo:免费实时屏幕翻译的终极指南,3分钟快速上手

Translumo:免费实时屏幕翻译的终极指南,3分钟快速上手 【免费下载链接】Translumo Advanced real-time screen translator for games, hardcoded subtitles in videos, static text and etc. 项目地址: https://gitcode.com/gh_mirrors/tr/Translumo …...

JiYuTrainer实用指南:3步轻松解除极域电子教室控制限制

JiYuTrainer实用指南:3步轻松解除极域电子教室控制限制 【免费下载链接】JiYuTrainer 极域电子教室防控制软件, StudenMain.exe 破解 项目地址: https://gitcode.com/gh_mirrors/ji/JiYuTrainer JiYuTrainer是一款专为极域电子教室环境设计的开源防控制软件&…...

Agentic RAG:智能体化检索增强生成系统的架构演进与Golang实战

引言:从"被动应答"到"主动办事" 2026年,检索增强生成(RAG)技术正经历一场从"静态管道"到"动态智能体"的范式革命。传统RAG系统本质上是"一问一答"的线性模式——用户提问、向量检索、召回文档、大模型生成、返回结果。…...

手把手教你:用三相220V变频器驱动380V电机,改个接线就搞定(附接线图)

手把手教你:用三相220V变频器驱动380V电机,改个接线就搞定(附接线图) 在工业现场和自动化项目中,经常会遇到设备电压不匹配的尴尬情况。比如手头有一台输出三相220V的变频器,却需要驱动一台额定电压380V的三…...

从零开始使用 Taotoken 在本地运行 AI 辅助编程工作流

从零开始使用 Taotoken 在本地运行 AI 辅助编程工作流 1. 准备工作 在开始配置之前,请确保您已经完成以下准备工作。首先,访问 Taotoken 平台并注册账号,在控制台中创建 API Key。其次,在模型广场查看并记录您希望使用的模型 ID…...

如何高效使用FlicFlac:Windows免费音频转换工具完全指南

如何高效使用FlicFlac:Windows免费音频转换工具完全指南 【免费下载链接】FlicFlac Tiny portable audio converter for Windows (WAV FLAC MP3 OGG APE M4A AAC) 项目地址: https://gitcode.com/gh_mirrors/fl/FlicFlac 还在为不同设备需要不同音频格式而烦…...

STM32F103ZE标准库SPI驱动PMW3901光流模块:从硬件连接到数据读取的保姆级教程

STM32F103ZE标准库SPI驱动PMW3901光流模块实战指南 第一次接触STM32和光流模块时,面对密密麻麻的引脚和寄存器配置,确实容易让人望而生畏。但别担心,这篇教程会带你从零开始,一步步完成硬件连接、SPI配置、寄存器初始化到最终数据…...

GEOvsSEO|做GEO的我,说实话不吹不黑

经常被问:GEO到底是什么?和SEO到底有啥区别? 一句话说清楚:SEO是让你被搜索引擎(百度、谷歌这些)搜到,而GEO,是让你被AI(豆包、deepseek、文心一言这些)选中&…...

Spring Boot项目在IDEA里调试,如何优雅地管理多套环境配置(开发/测试/生产)?

Spring Boot多环境配置管理的终极实践指南 当你在IDEA中调试Spring Boot项目时,是否经常为不同环境的配置切换而烦恼?开发环境用8080端口,测试环境用8081,生产环境又是另一套数据库连接?每次手动修改application.prope…...

鸣潮工具箱:3步解锁120FPS与抽卡数据分析的终极指南

鸣潮工具箱:3步解锁120FPS与抽卡数据分析的终极指南 【免费下载链接】WaveTools 🧰鸣潮工具箱 项目地址: https://gitcode.com/gh_mirrors/wa/WaveTools WaveTools是一款专为《鸣潮》玩家设计的开源工具箱,通过智能配置管理、画质优化…...

macOS日历智能助手:基于OpenClaw与幂等设计的对话式日程管理

1. 项目概述:一个让日程管理融入对话的智能助手如果你和我一样,每天在即时通讯软件(比如 Telegram、飞书、Discord)和日历应用之间反复横跳,只为把聊天里提到的一个会议、一个灵感或一张截图变成日历上的一个事件&…...

Cloud-Claw:基于Go与插件化架构的多云资源统一管理工具实践

1. 项目概述:一个轻量级云资源抓取与管理的利器最近在整理个人云上资产时,发现了一个挺有意思的开源项目,叫cloud-claw。这名字起得挺形象,“云爪”,一听就知道是跟云资源抓取和管理相关的工具。作为一个经常在多云环境…...

别再报错‘PowerSI executable not found’了!手把手教你搞定Cadence 2017.4与Sigrity 2019的完整安装与联调

彻底解决Cadence与Sigrity联调报错:从安装到仿真的全流程指南 每次打开Allegro Sigrity SI准备大展拳脚时,突然跳出的"PowerSI executable not found"报错对话框,就像一盆冷水浇灭了所有热情。这个看似简单的路径配置问题&#xff…...

Allegro 17.4 铺铜避坑指南:从动态铜皮参数到孤岛删除,一次讲清所有细节

Allegro 17.4 铺铜避坑指南:从动态铜皮参数到孤岛删除,一次讲清所有细节 刚接触Allegro进行PCB设计的硬件工程师,往往会在铺铜环节遇到各种"坑"。从动态铜皮参数设置不当导致的DRC错误,到孤岛铜皮处理不及时引发的生产隐…...

3分钟搞定Obsidian笔记内B站视频播放:终极解决方案

3分钟搞定Obsidian笔记内B站视频播放:终极解决方案 【免费下载链接】mx-bili-plugin 项目地址: https://gitcode.com/gh_mirrors/mx/mx-bili-plugin 还在为Obsidian笔记中无法直接播放B站视频而烦恼吗?Media Extended B站插件为你提供了一套完整…...

VGG19模型实战:用Python和TensorFlow从零搭建图像分类器(附完整代码)

VGG19模型实战:用Python和TensorFlow从零搭建图像分类器(附完整代码) 在计算机视觉领域,卷积神经网络(CNN)已经成为图像分类任务的标准解决方案。牛津大学视觉几何组(Visual Geometry Group&…...

CF冰火遗迹挂机避坑指南:为什么你的脚本总掉线?管理员权限和WeGame窗口是关键

CF冰火遗迹脚本稳定运行实战手册:从权限管理到图像识别的深度优化 1. 为什么你的CF脚本总在关键时刻掉链子? 深夜两点,你第15次检查脚本运行日志,发现它又在进入房间前一刻停止了响应。这不是个例——90%的CF自动化脚本失效案例都…...

5分钟上手:如何用M9A自动化你的《重返未来:1999》日常

5分钟上手:如何用M9A自动化你的《重返未来:1999》日常 【免费下载链接】M9A 重返未来:1999 小助手 | Assistant For Reverse: 1999 项目地址: https://gitcode.com/gh_mirrors/m9/M9A 厌倦了每天重复的游戏日常操作?想让《…...

D2R Pixel Bot终极指南:5步实现暗黑破坏神2重制版全自动运行

D2R Pixel Bot终极指南:5步实现暗黑破坏神2重制版全自动运行 【免费下载链接】botty D2R Pixel Bot 项目地址: https://gitcode.com/gh_mirrors/bo/botty D2R Pixel Bot是一款专门为《暗黑破坏神2重制版》设计的智能自动化工具,通过先进的图像识别…...

5分钟快速上手:用Chinese-ERJ LaTeX模板轻松搞定《经济研究》期刊论文格式

5分钟快速上手:用Chinese-ERJ LaTeX模板轻松搞定《经济研究》期刊论文格式 【免费下载链接】Chinese-ERJ 《经济研究》杂志 LaTeX 论文模板 - LaTeX Template for Economic Research Journal 项目地址: https://gitcode.com/gh_mirrors/ch/Chinese-ERJ 还在为…...

Anime4K:3分钟掌握实时动漫视频高清化的终极方案

Anime4K:3分钟掌握实时动漫视频高清化的终极方案 【免费下载链接】Anime4K A High-Quality Real Time Upscaler for Anime Video 项目地址: https://gitcode.com/gh_mirrors/an/Anime4K 当你在4K大屏幕上重温经典动漫时,是否曾因模糊的画面和失真…...

如何高效下载B站视频:BilibiliDown终极使用指南

如何高效下载B站视频:BilibiliDown终极使用指南 【免费下载链接】BilibiliDown (GUI-多平台支持) B站 哔哩哔哩 视频下载器。支持稍后再看、收藏夹、UP主视频批量下载|Bilibili Video Downloader 😳 项目地址: https://gitcode.com/gh_mirrors/bi/Bili…...

Win11Debloat:Windows 11终极去广告与系统优化工具,3步告别臃肿

Win11Debloat:Windows 11终极去广告与系统优化工具,3步告别臃肿 【免费下载链接】Win11Debloat A simple, lightweight PowerShell script that allows you to remove pre-installed apps, disable telemetry, as well as perform various other changes…...

五分钟搞定VRoidStudio中文界面:免费汉化插件终极指南

五分钟搞定VRoidStudio中文界面:免费汉化插件终极指南 【免费下载链接】VRoidChinese VRoidStudio汉化插件 项目地址: https://gitcode.com/gh_mirrors/vr/VRoidChinese 你是否在使用VRoidStudio时被满屏的英文界面困扰?作为一款功能强大的3D角色…...