当前位置: 首页 > article >正文

深入理解 Python 进程池:从 Future 到 as_completed 的完整指南

一、为什么需要进程池Python 的 GIL全局解释器锁使得同一时刻只有一个线程能执行 Python 字节码这意味着多线程在 CPU 密集型任务上几乎无法获得真正的并行加速。要绕过 GIL就必须使用多进程。但如果为每个任务都手动创建、启动、销毁一个进程开销会非常大——进程的创建比线程重得多涉及内存复制和操作系统调度。进程池正是为此而生它预先创建固定数量的工作进程重复利用它们来处理一批又一批任务从而把创建开销摊薄。Python 标准库提供了两种进程池实现concurrent.futures.ProcessPoolExecutor高层接口推荐multiprocessing.pool.Pool传统接口功能更丰富本文以ProcessPoolExecutor为主线逐步拆解它的核心概念Future、as_completed、add_done_callback以及map最后再介绍传统Pool的对应方法及两者选型建议。二、快速上手ProcessPoolExecutor2.1 创建进程池并提交任务fromconcurrent.futuresimportProcessPoolExecutorimportosdefcpu_bound_task(n):模拟一个 CPU 密集型计算resultsum(i*iforiinrange(10**6))returnf进程{os.getpid()}处理参数{n}结果{result}# 使用 with 语句自动管理池的生命周期withProcessPoolExecutor(max_workers4)asexecutor:# submit提交单个任务立即返回一个 Future 对象futureexecutor.submit(cpu_bound_task,42)# 通过 future.result() 阻塞等待结果resultfuture.result()print(result)max_workers控制工作进程数量通常设置为os.cpu_count()。缺省时ProcessPoolExecutor会自动取 CPU 核心数。2.2 深入理解 Future 对象executor.submit()不会直接返回计算结果而是返回一个Future对象。可以把Future理解为一个“未来的占位符”——它在任务提交时就拿到任务完成后再通过它取结果。Future的关键方法和属性方法 / 属性说明.result(timeoutNone)阻塞等待返回任务结果超时抛出TimeoutError.exception(timeoutNone)返回任务抛出的异常对象不重新抛出无异常则返回None.done()检查任务是否已完成成功或失败都算.running()检查任务是否正在执行.cancelled()检查任务是否被取消.cancel()尝试取消任务对已运行的任务通常无效.add_done_callback(fn)添加完成回调函数典型的错误处理模式fromconcurrent.futuresimportProcessPoolExecutordefsafe_divide(a,b):returna/bwithProcessPoolExecutor(max_workers2)asexecutor:futures[executor.submit(safe_divide,10,i)foriin[2,0,5]]forfutureinfutures:excfuture.exception()ifexcisnotNone:print(f任务失败{type(exc).__name__}:{exc})else:print(f结果{future.result()})输出结果5.0 任务失败ZeroDivisionError: division by zero 结果2.0future.exception()的妙处在于不重新抛出异常让你可以优雅地逐个处理错误。三、批量提交map 方法如果有一批相同的函数要应用到一系列参数上用submit逐个提交太繁琐。executor.map可以一次提交所有任务并按参数顺序返回结果fromconcurrent.futuresimportProcessPoolExecutordefsquare(n):returnn*nwithProcessPoolExecutor(max_workers4)asexecutor:# map 按参数顺序返回结果resultsexecutor.map(square,[1,2,3,4,5])print(list(results))# [1, 4, 9, 16, 25]map的签名是map(fn, *iterables, timeoutNone, chunksize1)*iterables支持多个可迭代对象类似内置maptimeout整体超时时间chunksize将输入切分成块分配给进程对性能有直接影响多参数任务可以这样传defadd(a,b):returnabwithProcessPoolExecutor()asexecutor:resultsexecutor.map(add,[1,2,3],[10,20,30])print(list(results))# [11, 22, 33]chunksize的调优价值当任务非常短小比如几千个简单计算进程间通信开销会变得显著。增大chunksize让每个进程一次拿一批任务减少通信轮次可显著提升性能。反之如果各任务耗时差异很大chunksize1能更好地负载均衡。注意executor.map是顺序产出结果的。即使后面的任务先完成也得等前面的结果就绪才能继续迭代。如果需要“谁先完成就先处理谁”就要用到下一节的as_completed。四、按完成顺序处理as_completed这是本文的重点之一。concurrent.futures.as_completed接收一组Future返回一个迭代器哪个 Future 先完成就先产出哪个。fromconcurrent.futuresimportProcessPoolExecutor,as_completedimporttime,randomdefdelayed_square(n):time.sleep(random.uniform(0.3,1.5))# 模拟耗时波动returnn,n*nwithProcessPoolExecutor(max_workers4)asexecutor:futures[executor.submit(delayed_square,i)foriinrange(8)]forfutureinas_completed(futures):n,sqfuture.result()print(f参数{n}→ 结果{sq})输出会按实际完成顺序排列而非参数顺序。这对于可以流式处理结果的场景非常有用——你不需要等最慢的任务完成就能开始处理已完成的部分。as_completed还支持timeout参数如果等待超过指定秒数仍无任何任务完成抛出TimeoutError。和map的对比executor.mapas_completed产出顺序按参数顺序按完成顺序内存占用低惰性迭代需要先生成所有 Future 再传入适合场景结果需保持对应关系流式处理、尽快消费结果五、异步回调add_done_callback除了主动轮询Future的结果还可以用add_done_callback注册一个回调函数任务完成后自动调用fromconcurrent.futuresimportProcessPoolExecutordefon_task_done(future):回调函数接收 Future 对象作为参数try:resultfuture.result()print(f回调任务完成结果{result})exceptExceptionase:print(f回调任务失败{e})withProcessPoolExecutor(max_workers4)asexecutor:foriinrange(5):futureexecutor.submit(pow,i,2)future.add_done_callback(on_task_done)# 回调在 Future 设置结果时触发关键细节回调函数的执行线程/进程不固定——对于ProcessPoolExecutor回调在设置结果的那个线程中执行通常是主线程或某个内部线程不是在子进程里。回调执行顺序不一定等于任务完成顺序取决于调度。回调中的异常不会被传播必须在回调内部自行捕获。如果有多个回调注册到同一个 Future它们按注册顺序依次执行。回调模式适合触发后续操作的场景比如“任务完成后写入日志”、“将结果放入队列”、“更新进度条”等。六、另一种选择multiprocessing.pool.PoolProcessPoolExecutor虽然是推荐方案但传统multiprocessing.pool.Pool有其独特的 API 设计了解它有助于阅读旧代码或使用某些特定功能。frommultiprocessingimportPooldefcube(n):returnn**3withPool(processes4)aspool:# 同步 map阻塞直到全部完成print(pool.map(cube,range(5)))# [0, 1, 8, 27, 64]# 异步 map_async返回 AsyncResultasync_respool.map_async(cube,range(5))print(async_res.get())# [0, 1, 8, 27, 64]# 按完成顺序产出对应 as_completedforresultinpool.imap_unordered(cube,range(5)):print(f完成{result})两者的概念对应关系ProcessPoolExecutormultiprocessing.pool.Poolsubmit(fn, *args)apply_async(fn, args, ...)map(fn, iterable)map(fn, iterable)as_completed(futures)imap_unordered(fn, iterable)Future对象AsyncResult对象future.add_done_callback(fn)apply_async(callbackfn)没有starmapstarmap支持多参元组展开选型建议新项目优先用ProcessPoolExecutorAPI 更简洁、与线程池接口统一、和asyncio协作更友好。如果要用starmap或需要更细粒度的异步控制再考虑Pool。七、最佳实践与常见陷阱7.1 序列化限制进程间不共享内存所有参数和返回值都必须通过pickle序列化传递。不能传递 lambda、带闭包的函数、某些特殊对象# ❌ 错误lambda 无法 pickleexecutor.submit(lambdax:x1,5)# PicklingError解决方案把函数定义在模块顶层或使用multiprocessing的Manager共享代理对象。7.2 启动方式与主模块保护Windows 和 macOS 默认使用spawn启动方式Linux 用fork。在spawn下子进程会重新导入主模块因此必须用if __name__ __main__:保护入口代码否则会无限递归创建进程# ✅ 正确写法if__name____main__:withProcessPoolExecutor()asexecutor:resultsexecutor.map(do_work,data)7.3 使用 initializer 初始化每个进程如果每个子进程需要独立的资源如数据库连接、日志配置用initializer参数importloggingfromconcurrent.futuresimportProcessPoolExecutordefinit_worker():logging.basicConfig(levellogging.INFO)print(f进程初始化完成)withProcessPoolExecutor(max_workers4,initializerinit_worker)asexecutor:...7.4 合理设置进程数CPU 密集型max_workers os.cpu_count()混合型任务可以略多于 CPU 数量让 I/O 等待时也有进程可用避免设置过大超多进程会引发上下文切换开销和内存压力7.5 大数据传参的优化如果任务需要处理大型数据集不要通过参数传递整个数据而是传索引或文件名让子进程自己去加载# ❌ 低效每个子进程都序列化整个大数组big_dataload_huge_array()executor.map(process_chunk,[big_data[i::4]foriinrange(4)])# ✅ 高效只传索引子进程按需加载defprocess_by_index(idx):dataload_huge_array()# 每个进程独立加载returnprocess(data[idx::4])executor.map(process_by_index,range(4))7.6 避免在任务内部再次提交到同一池这容易导致死锁——所有工作进程都在等待彼此的任务完成而池中没有空闲进程来执行新任务。八、实战案例批量图片缩略图生成下面是一个完整的实战示例综合运用了submit、as_completed和回调importos,time,randomfromconcurrent.futuresimportProcessPoolExecutor,as_completedfromPILimportImage# 需要 pip install PillowTHUMB_SIZE(128,128)defcreate_thumbnail(image_path,output_dir):生成缩略图并返回处理信息time.sleep(random.uniform(0.1,0.5))# 模拟耗时imgImage.open(image_path)img.thumbnail(THUMB_SIZE)filenameos.path.basename(image_path)out_pathos.path.join(output_dir,fthumb_{filename})img.save(out_path)returnimage_path,out_pathdeflog_completion(future):完成回调记录日志try:src,dstfuture.result()print(f✅{src}→{dst})exceptExceptionase:print(f❌ 处理失败:{e})if__name____main__:image_dir./imagesoutput_dir./thumbnailsos.makedirs(output_dir,exist_okTrue)images[os.path.join(image_dir,f)forfinos.listdir(image_dir)iff.endswith((.jpg,.png))]withProcessPoolExecutor(max_workersos.cpu_count())asexecutor:futures[]forimginimages:fexecutor.submit(create_thumbnail,img,output_dir)f.add_done_callback(log_completion)futures.append(f)# 按完成顺序实时输出as_completed 保证先完成的先被处理forfutureinas_completed(futures):# 这里可以叠加额外的实时处理逻辑pass# 回调已经处理了日志这里仅做同步等待print(f\n全部完成共处理{len(images)}张图片)这个案例中submit逐个提交图片处理任务add_done_callback注册日志回调完成即输出as_completed确保主流程等待所有任务完成九、总结概念一句话总结进程池复用一组进程执行 CPU 密集型任务绕过 GIL实现真正并行Future任务提交后立即返回的“占位符”通过.result()/.exception()获取结果map批量提交按参数顺序返回结果内存友好as_completed按完成顺序产出结果适合流式处理add_done_callback注册回调函数任务完成后自动触发适合日志、通知等副作用操作掌握这些你就能在 Python 中高效地驾驭多进程并行计算。根据不同场景灵活选择map、as_completed或回调模式就能在保持代码简洁的同时榨干多核 CPU 的性能。

相关文章:

深入理解 Python 进程池:从 Future 到 as_completed 的完整指南

一、为什么需要进程池? Python 的 GIL(全局解释器锁)使得同一时刻只有一个线程能执行 Python 字节码,这意味着多线程在 CPU 密集型任务上几乎无法获得真正的并行加速。要绕过 GIL,就必须使用多进程。 但如果为每个任务…...

Phi-3-mini-4k-instruct-gguf快速上手:3步完成Windows本地测试部署

Phi-3-mini-4k-instruct-gguf快速上手:3步完成Windows本地测试部署 1. 开篇:为什么选择Phi-3-mini 如果你正在寻找一个能在Windows电脑上快速运行的轻量级AI模型,Phi-3-mini是个不错的起点。这个4k上下文版本的instruct模型特别适合本地测试…...

real-anime-z惊艳效果展示:8K细节、光影质感与角色神态真实呈现

real-anime-z惊艳效果展示:8K细节、光影质感与角色神态真实呈现 1. 模型简介 real-anime-z是基于Z-Image的LoRA版本开发的文生图模型,专注于生成具有真实感的动画风格图片。这个模型通过Xinference部署,并提供了Gradio交互界面,…...

2023 年 12 月 大学英语六级 翻译真题_南水北调 六级必过 翻译真题云刷题 手把手纠错

自古以来,中国的水资源北缺南丰,分布极不均衡。Since ancient times,water resources in China have an extremely imbalance distribution,which are rich in the south and scarce in the north.为了有效解决北方严重缺水问题,中国政府实施…...

Rankify:一站式检索、重排序与RAG工具箱,统一AI搜索开发流程

1. 项目概述:一个面向检索、重排序与RAG的统一工具箱在信息爆炸的时代,如何从海量文本中快速、准确地找到所需信息,是自然语言处理领域一个经久不衰的核心挑战。无论是构建一个智能问答系统,还是开发一个企业级知识库,…...

深入EPO反应堆核心:从Socket封装到事件回调全链路解析

深入EPO反应堆核心:从Socket封装到事件回调全链路解析 在高性能网络编程领域,EPOLL 反应堆模型始终是绕不开的核心设计。它将繁琐的 Socket 操作、事件管理、回调逻辑高度封装,让服务端能以极低开销处理海量并发连接。今天,我们就…...

AMDGPU驱动性能实战: KFD Queue Quiesce/Restore 机制分析与优化方案探讨

1. 问题提出:Per-Process 粒度的 Queue Quiesce/Restore 1.1 核心问题 在 AMDGPU KFD 驱动中,当某个 BO(Buffer Object)或 SVM range 需要被 evict 或 invalidate 时,驱动会 quiesce(停止)该进…...

3步掌控笔记本性能:GHelper让ROG设备告别噪音与高温困扰

3步掌控笔记本性能:GHelper让ROG设备告别噪音与高温困扰 【免费下载链接】g-helper Lightweight, open-source control tool for ASUS laptops and ROG Ally. Manage performance modes, fans, GPU, battery, and RGB lighting across Zephyrus, Flow, TUF, Strix, …...

告别提取码焦虑:baidupankey如何用3秒解决你的百度网盘资源获取难题

告别提取码焦虑:baidupankey如何用3秒解决你的百度网盘资源获取难题 【免费下载链接】baidupankey 项目地址: https://gitcode.com/gh_mirrors/ba/baidupankey 还在为百度网盘分享链接的提取码而四处搜索吗?每次遇到加密资源都要在多个平台间切换…...

小白友好Pi0部署:Web界面控制机器人动作入门指南

小白友好Pi0部署:Web界面控制机器人动作入门指南 1. 项目介绍 Pi0是一个创新的视觉-语言-动作流模型,专为通用机器人控制设计。这个项目最吸引人的地方在于它提供了一个直观的Web界面,让用户可以通过简单的操作来控制机器人动作&#xff0c…...

SDMatte+影视后期应用:绿幕替代方案、老电影修复中透明胶片划痕提取

SDMatte影视后期应用:绿幕替代方案、老电影修复中透明胶片划痕提取 1. SDMatte简介 SDMatte是一款面向高质量图像抠图场景的AI模型,特别适合处理主体分离、透明物体提取、边缘精修等专业任务。在影视后期制作领域,这款工具正在改变传统的工…...

Windows 安装 Hermes Agent 对接微信机器人-养马教程

Hermes Agent是龙虾之后的又一热门工具,他是具备内置学习循环的自主智能体。本文介绍在Windows11 安装 Hermes Agent 并对接微信工具 官方文档:https://hermes-agent.nousresearch.com/ 1. 安装前准备 1.1 Windows 侧要求 windows本文基于wls安装&…...

AI 在软件测试最容易落地、见效快的场景有哪些?

一、最容易落地(零改造、马上能用) 测试用例 AI 生成 & 优化 输入需求文档、PRD、接口文档、用户故事,自动生成正向 / 反向 / 边界用例 自动梳理功能点、补充遗漏场景、精简冗余用例 适配:功能测试、接口测试、APP/Web 业务测…...

Redis 主从复制机制详解

Redis 主从复制机制详解 Redis作为高性能的键值存储系统,其主从复制机制是实现数据高可用和负载均衡的核心技术之一。通过主从复制,Redis可以将主节点的数据实时同步到多个从节点,从而提升系统的容灾能力和读取性能。本文将深入解析Redis主从…...

第17届杭州生物发酵展:9月盛大启幕,黄金席位抢占正当时

潮起杭城,酵聚锋芒!第17届国际生物发酵产品与技术装备展览会(BIO CHINA)定于2026年9月21-23日,在杭州国际博览中心盛大启幕。作为深耕行业十三载的标杆盛会,本届展会依托杭州长三角生物产业高地优势&#x…...

新三板企业基本信息数据2006-2024年

01、数据介绍新三板企业为全国中小企业股份转让系统挂牌公司,是经过国务院批准设立的全国性证券交易场所上的企业,主要为创新型、创业型、成长型中小微企业发展服务。整理新三板企业数据包括14172个观测值,新三板企业工商基本信息。数据名称&…...

如何快速掌握DownKyi:新手必备的B站视频下载完整指南

如何快速掌握DownKyi:新手必备的B站视频下载完整指南 【免费下载链接】downkyi 哔哩下载姬downkyi,哔哩哔哩网站视频下载工具,支持批量下载,支持8K、HDR、杜比视界,提供工具箱(音视频提取、去水印等&#x…...

马哥sre云计算运维第4次作业

一、解析/etc/sysconfig/network-scripts/ifcfg-eth0配置格式 TYPEEthernet # 网络类型,这里为以太网类型 PROXY_METHODnone # 代理方法:没有 BROWSER_ONLYno # 只浏览器使用: 否 如果只是配置网卡的话,没啥用可以去掉 BOOTPROT…...

拉格朗日乘数法与SVM优化原理详解

1. 拉格朗日乘数法的数学基础1.1 约束优化问题的标准形式拉格朗日乘数法是解决约束优化问题的经典方法。在机器学习领域,我们经常遇到需要在特定约束条件下寻找函数极值的问题。这类问题的标准数学表述为:最小化目标函数:f(x) 约束条件&#…...

Arducam OCam AI相机与边缘计算实践解析

1. Arducam OCam AI相机:实时视频流上下文增强的硬件解析 作为一款专为边缘AI设计的智能相机,Arducam OCam在硬件层面实现了多项创新突破。其核心搭载的3 TOPS算力AI加速器(相当于每秒3万亿次运算)使其能够在设备端直接处理2K分辨…...

ChatGPT机器翻译优化指南:温度、提示词与避坑实践

1. 项目概述与核心价值最近在机器翻译(Machine Translation, MT)领域,一个绕不开的话题就是如何用好以ChatGPT为代表的大语言模型。我自己在尝试将GPT-3.5/4集成到翻译工作流中时,遇到了不少困惑:为什么有时候翻译质量…...

零基础入门深度学习训练:基于预装环境镜像,从数据集准备到模型验证全记录

零基础入门深度学习训练:基于预装环境镜像,从数据集准备到模型验证全记录 1. 深度学习训练环境概述 深度学习项目训练环境镜像是一个开箱即用的解决方案,预装了完整的深度学习开发环境。这个镜像基于PyTorch框架,集成了训练、推…...

WorkflowAI:开源LLM协作平台,让AI应用开发从周级缩短到分钟级

1. 项目概述与核心理念如果你正在为如何将大语言模型(LLM)的能力快速、可靠地集成到你的产品中而头疼,那么WorkflowAI这个项目,绝对值得你花时间深入了解。它不是一个简单的API封装器,而是一个旨在彻底改变产品团队与工…...

LangChain.js构建MCP智能体:快速接入微软Copilot平台实战指南

1. 项目概述:当LangChain.js遇见微软Copilot平台 如果你最近在捣鼓AI应用开发,特别是想把自己的工具或数据接入到像Microsoft 365 Copilot这样的企业级AI助手里去,那你很可能已经听说过“MCP”(Microsoft Copilot Platform&#x…...

AYN Odin掌机性能解析与选购指南

1. AYN Odin掌机概述:性能与定位解析AYN Odin是一款定位中高端的6英寸Android掌机,搭载高通骁龙845或联发科天玑900处理器,采用1080P IPS触摸屏,支持通过扩展坞连接大屏显示。相比市面上常见的Amlogic S905D3方案掌机(…...

XUnity自动翻译器终极指南:5分钟让任何Unity游戏变中文版

XUnity自动翻译器终极指南:5分钟让任何Unity游戏变中文版 【免费下载链接】XUnity.AutoTranslator 项目地址: https://gitcode.com/gh_mirrors/xu/XUnity.AutoTranslator 还在为外语游戏而烦恼吗?XUnity自动翻译器是你的终极解决方案&#xff01…...

NLP文本预处理技术与Keras实践指南

1. 文本数据预处理的核心挑战在自然语言处理(NLP)领域工作时,我经常遇到这样的场景:拿到一批原始文本数据时,它们可能包含社交媒体评论、新闻文章或产品描述等各种形式。这些数据通常存在大小写混乱、特殊符号、停用词…...

深度学习训练历史可视化:从基础到高级技巧

1. 项目概述:为什么需要可视化训练历史? 在深度学习项目实践中,模型训练过程就像飞行员驾驶飞机时需要仪表盘一样重要。当我们用Keras训练神经网络时,model.fit()方法返回的History对象包含了loss和metrics的完整演变记录&#xf…...

时间序列预测:Box-Jenkins方法与ARIMA模型实战指南

1. 时间序列预测与Box-Jenkins方法概述我第一次接触Box-Jenkins方法是在分析销售数据时遇到的难题。当时手头有3年的日销数据,需要预测未来半年的趋势。传统的移动平均法完全失效,而机器学习模型又显得"杀鸡用牛刀"。这时一位资深数据科学家推…...

Clink 在 VS 2022 Developer Command Prompt 中的配置与路径精简调校

Clink 在 VS 2022 Developer Command Prompt 中的配置与路径精简调校 引言 Clink 是什么,能做什么? https://github.com/chrisant996/clink Clink 并不是 CMD 的替代品,而是它的增强层。它在保持批处理兼容性的同时,把类 Unix Sh…...