当前位置: 首页 > article >正文

为什么你的FastAPI+Llama3服务QPS不到80?:揭秘Python asyncio与KV Cache内存布局冲突的底层真相

更多请点击 https://intelliparadigm.com第一章Python AI 原生应用推理加速现代 Python AI 应用正面临推理延迟高、内存占用大、GPU 利用率不均等瓶颈。原生加速并非仅依赖硬件升级而是需在模型编译、运行时调度与 Python 生态协同三个层面深度优化。核心加速策略采用 TorchDynamo Inductor 后端实现动态图编译自动融合算子并生成高效 CUDA 内核利用 ONNX Runtime 的 Python API 对 PyTorch/TensorFlow 模型进行跨平台推理优化启用 torch.compile()PyTorch 2.0替代传统 JIT支持 modereduce-overhead 降低首次推理延迟快速启用 torch.compile 示例# 原始模型定义 model ResNet50().eval() x torch.randn(1, 3, 224, 224) # 启用原生编译自动选择最优后端 compiled_model torch.compile(model, modemax-autotune, fullgraphTrue) # 首次调用触发编译后续调用直接执行优化后内核 with torch.no_grad(): output compiled_model(x)该代码在首次运行时完成图捕获与内核调优典型 ResNet50 推理延迟可下降 35%–60%且无需修改模型结构或导出流程。主流加速方案对比方案适用模型Python 原生支持典型加速比ResNet50torch.compilePyTorch 原生模型✅ 完全兼容1.8×–2.3×ONNX Runtime EPONNX 格式模型✅ Python API 稳定1.5×–2.0×NVIDIA TensorRT-LLMLLM如 Llama⚠️ 需 Python binding3.0×长序列第二章FastAPI异步服务与LLM推理的协同瓶颈分析2.1 asyncio事件循环调度对KV Cache批处理延迟的隐式放大效应事件循环与批处理时序错位当多个推理请求共享同一KV Cache时asyncio事件循环按协程就绪顺序调度而非按实际数据就绪时间。这导致本可合并的token批次被拆散执行引入额外上下文切换开销。关键调度延迟放大因子协程挂起/恢复平均耗时0.8–1.2 μsCPython 3.12高并发下事件队列排队延迟可达3–7个tick周期实测延迟对比表批大小理想延迟μs实测延迟μs放大倍数41262181.73×162955421.84×规避调度干扰的协程封装async def batched_kv_lookup(keys: List[str], loop: asyncio.AbstractEventLoop None): # 强制对齐到下一个事件循环tick边界 await asyncio.sleep(0) # 触发yield避免抢占式插入 return _fast_batch_lookup(keys) # 实际C扩展调用该写法通过显式await asyncio.sleep(0)将协程主动让出控制权使同一批次请求更大概率被连续调度实测降低延迟抖动达41%。参数loop支持自定义事件循环绑定适配多租户隔离场景。2.2 Llama3自回归解码中token级await阻塞与GPU kernel启动间隙的量化实测阻塞观测点定位在 Llama3 的 generate() 循环中每个 token 生成后需显式 await next_token_logits 的 GPU 张量同步# torch.compile CUDA graph 启用下仍触发隐式同步 logits model(input_ids) # kernel launch await logits # ⚠️ 此处触发 token 级 await引入 ~1.8ms 阻塞实测 A100该 await 强制等待 kernel 完成并回传 logits导致后续 decode kernel 启动延迟。Kernel 启动间隙实测数据Batch SizeAvg Gap (μs)Std Dev (μs)118202154940132优化路径用 torch.cuda.Stream 显式管理计算流解耦 logits 获取与 next-token 采样启用 --use-flash-attn 降低单 kernel 延迟压缩间隙窗口2.3 Python对象生命周期管理对PagedAttention内存页驻留率的破坏性影响GC触发时机与页驻留冲突Python的引用计数分代GC机制无法感知CUDA内存页的局部性需求。当torch.Tensor被回收时其底层PagedKVCache页可能仍被推理引擎逻辑引用但GC已释放页表映射。关键代码片段# PagedAttention中页分配与Python对象解耦 page_table allocator.allocate_pages(num_pages16) # 返回物理页ID数组 kv_cache torch.empty(1, 32, 128, dtypetorch.float16, devicecuda) # 注意kv_cache生命周期结束 ≠ page_table可回收该代码中kv_cache对象销毁会触发__del__但若未显式调用page_table.free()物理页将长期驻留导致页驻留率虚高。驻留率影响对比场景平均页驻留率推理吞吐下降标准GC回收78%23%显式页管理94%0%2.4 uvloop替代默认event loop在KV Cache预分配场景下的吞吐提升实验实验环境与配置Python 3.11 PyTorch 2.3LLM推理服务启用静态KV Cache预分配max_seq_len2048对比组默认asyncio event loop vsuvloop.install()启用版本关键性能对比指标默认event loopuvloopQPSbatch_size814221799%延迟ms186113核心代码适配import uvloop import asyncio # 替换默认事件循环必须在asyncio.run前调用 asyncio.set_event_loop_policy(uvloop.EventLoopPolicy()) asyncio.run(main()) # 此后所有协程均运行于uvloop该代码强制将asyncio底层替换为libuv实现的高性能事件循环uvloop通过减少Python层调度开销、优化I/O多路复用epoll/kqueue及内存池管理在KV Cache高频异步内存拷贝场景下显著降低上下文切换延迟。2.5 异步生成器async generator与streaming response间引用计数泄漏的内存取证分析泄漏触发场景当异步生成器被用作 FastAPI 或 Starlette 的 StreamingResponse 数据源时若生成器对象在响应流关闭后仍被 Response 实例强引用将导致协程帧与闭包变量无法被 GC 回收。关键代码路径async def data_stream(): buffer [bytearray(1024) for _ in range(100)] # 模拟大内存缓冲 for i in range(10): yield fdata: {i}\n\n.encode() await asyncio.sleep(0.1) # buffer 生命周期本应在函数退出时结束但因引用泄漏持续驻留该生成器返回的 对象被 StreamingResponse.__init__() 缓存于 self.body_iterator而 Response.background 任务未显式置空该引用致使 buffer 无法释放。引用链快照CPython 3.11对象类型引用持有方泄漏根源async_generatorStreamingResponse.body_iterator未调用aclose()且无 weakref 包装frame objectgenerator’s gi_frame事件循环异常中断导致 gi_running True 残留第三章KV Cache内存布局与Python运行时的底层冲突机制3.1 FlashAttention-2中block-wise cache与CPython内存池allocator的对齐失配内存对齐冲突根源FlashAttention-2 的 block-wise KV cache 默认按 16 字节对齐适配 AVX512而 CPython 的 pymalloc 以 8 字节为基本单元分配导致跨块指针偏移无法被整除。典型缓存分配片段// FlashAttention-2 中 block 分配伪代码 void* block aligned_alloc(16, block_size); // 要求 16B 对齐 kv_cache[i] (float*)block offset; // offset 可能为 12B非16B倍数该 offset 若源自 pymalloc 分配的元数据头如 8B refcnt 4B size将引发地址错位触发 CPU 硬件异常或 silent 数据截断。对齐兼容性对比特性FlashAttention-2 block-wise cacheCPython pymalloc默认对齐粒度16 字节8 字节最小分配单元256 字节含 padding8 字节可重用性需显式对齐检查不保证跨模块对齐3.2 torch.cuda.CachingAllocator与asyncio.Future对象跨线程引用导致的cache miss激增问题根源当 asyncio 事件循环在非主线程中创建 Future并将其绑定至 CUDA 张量操作时torch.cuda.CachingAllocator的线程局部缓存TLS cache无法被该线程访问强制回退至全局分配器引发高频 cache miss。典型复现代码import asyncio import torch async def worker(): # 在子线程事件循环中执行 x torch.randn(1024, 1024, devicecuda) # 触发 TLS cache miss return x # 启动新线程运行 loop → cache allocator 未初始化此处torch.cuda.CachingAllocator的 TLS 缓存仅在首次调用cuda.init()的线程中注册跨线程 Future 持有张量时内存分配绕过本地 slab直接走慢速路径。关键影响指标指标主线程asyncio 子线程Cache hit rate92.3%31.7%Avg alloc latency (μs)8.2147.63.3 使用memory_profilernsight compute联合定位KV Cache碎片化热点双工具协同分析流程用memory_profiler捕获 Python 层 KV Cache 分配/释放时序与内存块分布同步触发nsight compute记录 GPU kernel 的 LDS/Shared Memory 实际占用与 bank conflict对齐时间戳定位高碎片时段对应 kernel 的 memory access pattern。典型内存分配异常检测代码profile def allocate_kv_cache(batch_size, seq_len, n_heads, head_dim): # 触发 memory_profiler 跟踪 kv_cache torch.empty(batch_size, 2, n_heads, seq_len, head_dim, dtypetorch.float16, devicecuda) return kv_cache # 此处易因不规则 seq_len 导致显存页内碎片该函数在动态 batch 中频繁调用不同seq_len参数造成 CUDA UVM page 内部空洞profile标记使memory_profiler输出每行内存增量及累计峰值辅助识别非对齐分配模式。碎片化指标对比表指标健康值碎片化阈值GPU 显存利用率85%70%平均 alloc size / page size0.90.4第四章面向高QPS的Python原生推理加速实践路径4.1 基于Triton内核重构KV Cache更新逻辑的zero-copy异步绑定方案核心设计思想摒弃传统 host-side memcpy 与 kernel launch 分离模式将 KV Cache 的 slot 更新、位置映射与内存视图重绑定全部下沉至 Triton 内核在单次 kernel launch 中完成指针偏移计算、原子写入与 buffer 元数据就地刷新。关键代码片段triton.jit def kv_cache_update_kernel( K_ptr, V_ptr, # [B, H, S, D] 当前缓存基址 K_new_ptr, V_new_ptr, # [B, H, 1, D] 新 token 的 K/V slot_offset, # int32: 目标 slot 在 page 内偏移 stride_kbs, stride_khd, stride_ksd, # KV 缓存步长 BLOCK_D: tl.constexpr, ): off_d tl.arange(0, BLOCK_D) # zero-copy直接计算目标地址无中间拷贝 k_dst K_ptr slot_offset * stride_ksd off_d v_dst V_ptr slot_offset * stride_ksd off_d k_src K_new_ptr off_d v_src V_new_ptr off_d tl.store(k_dst, tl.load(k_src)) tl.store(v_dst, tl.load(v_src))该内核通过预计算物理地址实现 zero-copyslot_offset由 host 提前通过 PagedAttention 索引表查得避免 kernel 内部访存BLOCK_D对齐 GPU warp 宽度确保 coalesced store。性能对比单位μs方案GPU 时间CPU 同步开销传统 memcpy kernel8.215.6Triton zero-copy 绑定3.70.94.2 使用PyO3 Rust FFI实现cache-aware batch scheduler的低延迟调度器核心设计目标通过PyO3桥接Python生态与Rust高性能计算能力利用Rust的零成本抽象与内存安全特性在L1/L2缓存行对齐约束下实现微秒级任务分发。关键数据结构对齐// Cache-line aligned task batch descriptor #[repr(align(64))] // Enforce L1 cache line alignment pub struct CacheAlignedBatch { pub task_count: u16, pub priority: u8, pub _padding: [u8; 61], // Fill to 64 bytes }该结构确保单个batch实例独占一个L1缓存行64B避免伪共享task_count和priority为热字段高频访问且无跨线程竞争。调度延迟对比实现方式平均延迟μsP99抖动μs纯Python asyncio127410PyO3Rust FFI3.28.74.3 FastAPI中间件层集成vLLM异步EngineClient的零拷贝tensor共享协议零拷贝共享核心机制通过共享内存shm与 torch.UntypedStorage 映射实现跨进程 tensor 零拷贝。vLLM 的 AsyncLLMEngine 输出的 RequestOutput 中 logits 张量直接绑定至预分配的共享内存段。# 在中间件中注册共享存储 shared_storage torch.UntypedStorage.from_file( path/dev/shm/vllm_logits_001, size256 * 1024 * 1024, # 256MB sharedTrue ) logits_tensor torch.as_tensor(shared_storage, dtypetorch.float16).view(-1, vocab_size)该代码将共享内存映射为可读写的 torch.Tensor避免序列化/反序列化开销size 必须与 vLLM 后端预分配一致sharedTrue 启用跨进程可见性。FastAPI中间件注入点在 BaseHTTPMiddleware 的 dispatch() 中拦截 /generate 请求调用 engine_client.generate_async() 并传入 shared_logits_ptr 地址标识响应前直接读取共享内存中的 logits跳过 CPU-GPU 拷贝4.4 基于torch.compile Inductor后端对decode阶段KV重索引算子的图级优化验证KV重索引算子原始实现瓶颈在自回归decode阶段KV缓存需按beam索引动态重排。原始PyTorch实现依赖torch.gather逐层索引引入大量细粒度kernel launch开销。编译优化关键代码def kv_reindex(k_cache, v_cache, beam_idx): # beam_idx: [batch_size], dtypetorch.int64 return ( torch.gather(k_cache, dim0, indexbeam_idx.unsqueeze(-1).unsqueeze(-1)), torch.gather(v_cache, dim0, indexbeam_idx.unsqueeze(-1).unsqueeze(-1)) ) compiled_reindex torch.compile(kv_reindex, backendinductor, fullgraphTrue)该代码显式启用fullgraphTrue强制图融合beam_idx经两次unsqueeze适配KV的[B, H, S, D]维度Inductor自动将gatherreshape融合为单个CUDA kernel。性能对比A100, batch8方案延迟(ms)Kernel数原生PyTorch1.826torch.compileInductor0.971第五章总结与展望在实际微服务架构演进中某金融平台将核心交易链路从单体迁移至 Go gRPC 架构后平均 P99 延迟由 420ms 降至 86ms错误率下降 73%。这一成果依赖于持续可观测性建设与契约优先的接口治理实践。可观测性落地关键组件OpenTelemetry SDK 嵌入所有 Go 服务自动采集 HTTP/gRPC span并通过 Jaeger Collector 聚合Prometheus 每 15 秒拉取 /metrics 端点自定义指标如grpc_server_handled_total{servicepayment,codeOK}支持故障归因日志统一结构化为 JSON字段包含 trace_id、span_id、service_name便于 ELK 关联检索服务契约验证自动化流程// 在 CI 阶段执行 Protobuf 兼容性检查 func TestProtoBackwardCompatibility(t *testing.T) { oldDef : loadProto(v1/payment.proto) newDef : loadProto(v2/payment.proto) diff : protocmp.Compare(oldDef, newDef) if diff.IsBreaking() { // 使用 buf-check-breaking 工具集成 t.Fatal(v2 breaks backward compatibility) } }技术债治理成效对比维度迁移前单体 Java迁移后Go 微服务平均部署耗时28 分钟全量构建92 秒增量镜像 Helm Diff本地调试启动时间3.2 分钟Spring Boot DevTools1.8 秒air go:embed 静态资源未来将推进 eBPF 辅助的零侵入网络层追踪并在支付网关中试点 WASM 插件沙箱实现风控策略热更新。

相关文章:

为什么你的FastAPI+Llama3服务QPS不到80?:揭秘Python asyncio与KV Cache内存布局冲突的底层真相

更多请点击: https://intelliparadigm.com 第一章:Python AI 原生应用推理加速 现代 Python AI 应用正面临推理延迟高、内存占用大、GPU 利用率不均等瓶颈。原生加速并非仅依赖硬件升级,而是需在模型编译、运行时调度与 Python 生态协同三个…...

华硕笔记本的“瘦身“秘籍:3分钟让G-Helper成为你的性能管家

华硕笔记本的"瘦身"秘籍:3分钟让G-Helper成为你的性能管家 【免费下载链接】g-helper Lightweight, open-source control tool for ASUS laptops and ROG Ally. Manage performance modes, fans, GPU, battery, and RGB lighting across Zephyrus, Flow, …...

Rust高性能网络抓包框架karasu:从零构建安全高效的流量分析工具

1. 项目概述:从“scozu/karasu”看开源项目命名背后的技术哲学最近在GitHub上闲逛,又发现了一个名字挺有意思的项目——scozu/karasu。乍一看,这像是一个典型的个人开发者仓库,用户名scozu加上项目名karasu。karasu在日语里是“乌…...

RAG-Anything横空出世!文字、图片、表格、公式,文档里的“一切”都能搜!

传统RAG仅支持文本检索,面对图表、公式等非文本内容束手无策。RAG-Anything在LightRAG基础上,通过多模态扩展层,将文档中的文字、图片、表格、公式等所有内容统一纳入知识图谱,并支持VLM增强查询和多模态查询模式,极大…...

大模型微调速成:20天入门,1个月精通,附完整学习路线!

上次分享的AI路径规划学习路线,小点在后台收到了不少学员的好评!还有不少人私信小点:“大模型微调怎么入门?”“看了很多资料,还是不知道先学啥”“学了半个月,连环境配置都没搞定”…… 那么今天&#xff…...

本地语音AI助手构建指南:从Whisper、LLM到TTS的完整实践

1. 项目概述:打造一个完全离线的本地语音AI助手 几年前,当ChatGPT刚刚崭露头角时,一个想法让我非常着迷:能不能有一个完全运行在自己电脑上的语音助手?它不需要连接任何云端服务,所有的对话、思考和语音合成…...

【2026年最新600套毕设项目分享】基于微信的高校教务管理系统(30189)

有需要的同学,源代码和配套文档领取,加文章最下方的名片哦 一、项目演示 项目演示视频 项目演示视频2 项目演示视频3 二、资料介绍 完整源代码(前后端源代码SQL脚本)配套文档(LWPPT开题报告/任务书)远…...

如何让ESP32设备听懂人话?小智AI聊天机器人终极指南

如何让ESP32设备听懂人话?小智AI聊天机器人终极指南 【免费下载链接】xiaozhi-esp32 An MCP-based chatbot | 一个基于MCP的聊天机器人 项目地址: https://gitcode.com/GitHub_Trending/xia/xiaozhi-esp32 你是否曾经想象过,一个简单的嵌入式设备…...

逆向工程工具:基于PE加载器的反作弊绕过技术实现

逆向工程工具:基于PE加载器的反作弊绕过技术实现 【免费下载链接】VAC-Bypass-Loader Loader for VAC Bypass written in C. 项目地址: https://gitcode.com/gh_mirrors/va/VAC-Bypass-Loader VAC-Bypass-Loader是一款采用C语言编写的Windows PE加载器&#…...

TrollInstallerX深度解析:专业级iOS TrollStore安装工具实战指南

TrollInstallerX深度解析:专业级iOS TrollStore安装工具实战指南 【免费下载链接】TrollInstallerX A TrollStore installer for iOS 14.0 - 16.6.1 项目地址: https://gitcode.com/gh_mirrors/tr/TrollInstallerX TrollInstallerX是一款专业级的iOS TrollSt…...

LLM风险预测与干预的优化策略

1. 问题本质:预测与干预的鸿沟大型语言模型(LLM)在风险预测领域展现出惊人的准确率,但我们在实际部署中发现一个矛盾现象:系统能提前72小时以92%的准确率预测到用户风险行为,实际干预成功率却不足35%。这个…...

【收藏备用|2026版】Java开发者秋招破局+大模型学习指南,小白/程序员必看!

本文针对2026年Java开发者(含小白、初级程序员)求职中最突出的四大高频短板——基础不牢、框架底层空白、项目深度不足、分布式能力薄弱,结合当下大模型技术趋势,提供详细的破局方案与学习路径。文章重点强调JVM、多线程、框架源码…...

收藏!2026年版3大高潜力大模型细分赛道,程序员零基础转行必看

当下2026年大模型技术全面赋能各行各业,数字化AI改造已成企业刚需,越来越多后端、前端、全栈程序员都在寻求职业破局,将大模型相关技术转型当作突破职场瓶颈、抓取时代行业红利的关键选择。提起大模型行业,大多数人第一时间只会想…...

终极密码恢复方案:基于7zip引擎的高效压缩包密码测试工具深度解析

终极密码恢复方案:基于7zip引擎的高效压缩包密码测试工具深度解析 【免费下载链接】ArchivePasswordTestTool 利用7zip测试压缩包的功能 对加密压缩包进行自动化测试密码 项目地址: https://gitcode.com/gh_mirrors/ar/ArchivePasswordTestTool 在数字资产管…...

告别B站观影烦恼:BiliRoamingX解锁完整观影体验的终极指南

告别B站观影烦恼:BiliRoamingX解锁完整观影体验的终极指南 【免费下载链接】BiliRoamingX-integrations BiliRoamingX integrations and patches powered by ReVanced. 项目地址: https://gitcode.com/gh_mirrors/bi/BiliRoamingX-integrations 你是否曾因地…...

【仅限首批200名开发者】Docker WASM边缘部署速成包:含预编译镜像、安全沙箱策略、可观测性埋点模板——限时开放下载

更多请点击: https://intelliparadigm.com 第一章:Docker WASM 边缘计算部署指南 如何实现快速接入 WebAssembly(WASM)正成为边缘计算场景中轻量、安全、跨平台执行代码的关键载体,而 Docker 官方对 WASM 的原生支持&…...

阿里开源项目Pixelle-Video 详解:开源AI全自动短视频引擎,零门槛一键生成成片

摘要在短视频创作日益普及的今天,剪辑门槛高、创作效率低、专业技能不足等问题,成为很多人及中小团队入局短视频赛道的绊脚石。Pixelle-Video 作为一款开源的AI全自动短视频引擎,凭借“输入一个主题,一键生成完整视频”的核心能力…...

如何突破性解决QtScrcpy鼠标点击失效:3个实战技巧深度解析

如何突破性解决QtScrcpy鼠标点击失效:3个实战技巧深度解析 【免费下载链接】QtScrcpy Android实时投屏软件,此应用程序提供USB(或通过TCP/IP)连接的Android设备的显示和控制。它不需要任何root访问权限 项目地址: https://gitcode.com/barry-ran/QtScr…...

TTP229触摸模块避坑指南:51单片机驱动时如何解决误触和抗干扰问题?(实测分享)

TTP229触摸模块实战优化:从硬件设计到软件防抖的完整避坑方案 第一次用TTP229做智能家居控制面板时,半夜两点被自动触发的灯光吓醒——这大概是我接触电容触摸模块最难忘的经历。作为一款高性价比的16键电容触摸芯片,TTP229在智能面板、工业控…...

告别内存焦虑:用VastGaussian的渐进式分块策略搞定超大场景3D重建(附保姆级配置流程)

突破显存限制:VastGaussian大场景3D重建实战指南 当无人机航测数据达到TB级别,当自动驾驶仿真需要厘米级精度,当VR内容制作遇到城市级场景——显存不足的报错提示成为开发者最不愿看到的画面。传统3D Gaussian Splatting技术在处理小规模场景…...

突破限制:如何为Android Auto安装第三方应用

突破限制:如何为Android Auto安装第三方应用 【免费下载链接】AAAD The original application for downloading and installing apps made specifically for Android Auto outside of Google Play Store. Active since 2021. 项目地址: https://gitcode.com/gh_mi…...

别再只调库了!用STM32 HAL库底层驱动LCD1602和DHT11,搞懂时序是关键

深入解析STM32 HAL库驱动LCD1602与DHT11的时序控制实战 1. 嵌入式开发中的时序控制核心地位 在嵌入式系统开发中,时序控制就像交响乐团的指挥棒,精确协调着各个硬件模块的工作节奏。当我们从简单的库函数调用转向底层驱动开发时,时序问题往往…...

C语言中的volatile类型修饰符

volatile 的核心作用&#xff0c;就是告诉编译器&#xff1a;这个变量的读写是有外部副作用的&#xff0c;不能优化、不能缓存、不能重排&#xff0c;必须按代码写的顺序真实执行每一次访问。 例如&#xff1a; #include <stdint.h>typedef struct {volatile uint32_t AC…...

BetaFlight硬件配置文件DIY:手把手教你用set命令为定制飞控配置传感器

BetaFlight硬件配置文件DIY&#xff1a;手把手教你用set命令为定制飞控配置传感器 穿越机玩家在组装定制飞行控制器时&#xff0c;最常遇到的挑战之一就是如何正确配置各类传感器。不同于标准飞控的即插即用体验&#xff0c;DIY飞控往往需要手动指定陀螺仪、磁力计和气压计等传…...

C:结构体(struct)

结构体&#xff08;struct&#xff09;是一种由一组成员组成的类型&#xff0c;这些成员的存储空间按顺序依次分配&#xff08;这与共用体&#xff08;union&#xff09;不同&#xff0c;共用体的成员存储空间是相互重叠的&#xff09;。 例如定义一个结构体&#xff1a; struc…...

终极HTML转Word指南:3分钟掌握html-to-docx实现完美文档转换 [特殊字符]✨

终极HTML转Word指南&#xff1a;3分钟掌握html-to-docx实现完美文档转换 &#x1f4c4;✨ 【免费下载链接】html-to-docx HTML to DOCX converter 项目地址: https://gitcode.com/gh_mirrors/ht/html-to-docx 你是否曾经为网页内容复制到Word时格式错乱而烦恼&#xff1…...

ubuntu CT文件查看器---

https://download.slicer.org/ 解压文件后直接执行就可以了 ./可执行文件...

YES24 Ticket Helper 捡漏回流票插件安装 使用教程

一、先把插件装上先打开浏览器&#xff0c;在地址栏输入&#xff1a;chrome://extensions打开后&#xff1a;右上角把【开发者模式】打开&#xff08;很关键&#xff01;&#xff09;点击【加载已解压的扩展程序】选择你下载好的插件文件夹&#xff08;记得是解压后的文件夹&am…...

生成式推荐系统:多头部解码框架设计与实践

1. 生成式推荐系统的现状与挑战在当今的推荐系统领域&#xff0c;生成式推荐模型正逐渐成为主流。这类模型通过深度学习技术&#xff0c;能够从海量用户行为数据中学习复杂的模式&#xff0c;预测用户可能感兴趣的物品或内容。然而&#xff0c;传统的生成式推荐系统存在几个关键…...

告别繁琐操作!WinUtil:这款开源免费的Windows系统管理工具让你一键搞定所有

告别繁琐操作&#xff01;WinUtil&#xff1a;这款开源免费的Windows系统管理工具让你一键搞定所有 【免费下载链接】winutil Chris Titus Techs Windows Utility - Install Programs, Tweaks, Fixes, and Updates 项目地址: https://gitcode.com/GitHub_Trending/wi/winutil…...