目录Python 并发编程是指在 Python 中编写能够同时实验多个使命的步伐。并发编程在任何一门语言当中都是比较难的,因为会涉及各种各样的题目,在Python当中也不例外。Python 提供了多种方式来实现并发,包罗多线程(threading)、多历程(multiprocessing)、异步编程(asyncio),以及一些高级用法concurrent.futures和第三方库如gevent。 多线程 (Threading)多线程是通过利用 [code]threading[/code] 模块来创建和管理线程。线程是轻量级的过程,可以与同一历程中的其他线程共享数据和资源。然而,由于 Python 的全局解释器锁(GIL)的存在,如果用的解释器是CPython的话,那么多线程在 CPU 麋集型使命上不会有性能提升的,但是IO麋集型的是会有的。 [code]import threading import time def worker(num): print(f"Worker {num} starting") time.sleep(2) print(f"Worker {num} finished") threads = [] for i in range(5): t = threading.Thread(target=worker, args=(i,)) threads.append(t) t.start() # Wait for all threads to complete for t in threads: t.join() print("All workers finished.") [/code]上面的例子中,通过[code]threading[/code]模块中的[code]Thread[/code]启动了另一个线程,输出中首先出现的是每个线程的启动消息,如 "Worker 0 starting",然后是 "Worker 1 starting" 等等。 全局解释器锁(GIL)是汗青汗青遗留下来的题目,在Python3.13大概会得到解决。 多历程 (Multiprocessing)多历程则可以通过利用 [code]multiprocessing[/code] 模块来创建独立的历程。每个历程都有自己的内存空间,因此可以绕过 GIL,实用于 CPU 麋集型使命。 [code]from multiprocessing import Process import time def worker(num): print(f"Worker {num} starting") time.sleep(2) print(f"Worker {num} finished") processes = [] for i in range(5): p = Process(target=worker, args=(i,)) processes.append(p) p.start() # Wait for all processes to complete for p in processes: p.join() print("All workers finished.") [/code]多历程与多线程示例雷同,但这里是在不同的历程中实验。通过[code]multiprocessing[/code]模块中的[code]Process[/code]启动了另一个历程,每个历程开始和完成的消息按顺序出现。由于历程之间没有共享内存,每个历程都在独立的情况中运行,因此输出中的完成顺序与启动顺序相同。 异步编程 (Asyncio)Python 3.4 引入了 asyncio 模块,它是一个用于编写单线程并发代码的模块,利用 async 和 await 关键字。异步编程答应你编写并发代码,以非阻塞的方式运行。这非常适合 I/O 麋集型使命,如网络哀求、文件操作等。 [code]import asyncio async def worker(num): print(f"Worker {num} starting") await asyncio.sleep(2) print(f"Worker {num} finished") async def main(): tasks = [worker(i) for i in range(5)] await asyncio.gather(*tasks) asyncio.run(main()) print("All workers finished.") [/code]由于协程是基于变乱循环的,因此输出中的完成顺序大概与启动顺序不同。异步编程也是python并发编程中比较紧张的一个概念,反面很大篇幅都要围绕这个异步编程来展开的。 利用 concurrent.futures[code]concurrent.futures[/code] 提供了一个高条理的接口来处理并行实验的使命,实际上就是线程池或者历程池的玩意,这个池的概念就是线程或者历程用完不烧毁,重复利用,详细反面展开说说。 示例[code]from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor import time def worker(num): print(f"Worker {num} starting") time.sleep(2) return f"Worker {num} finished" with ThreadPoolExecutor(max_workers=5) as executor: futures = [executor.submit(worker, i) for i in range(5)] for future in futures: print(future.result()) print("All workers finished.") [/code]首先,创建了一个最大容纳 5 个工作线程的线程池。然后,提交了 5 个 worker 使命到线程池中,并立即返回了 5 个 Future 对象。接着,步伐遍历这些 Future 对象,等候每个使命完成,并打印它们的返回值。末了,打印全部工作线程已经完成的消息。不外照旧谁人题目,由于 Python 的全局解释器锁(GIL),在 CPU 麋集型使命中,线程池并不会带来性能上的提升。 以上这些方法都可以根据你的详细需求来选择利用。如果你必要进行更多的细节控制或者有特定的性能要求,你还可以思量利用更底层的 API 或者第三方库。 到此这篇关于Python并发编程的几种实现方式的文章就介绍到这了,更多相关Python并发编程的实现内容请搜刮脚本之家从前的文章或继承浏览下面的相关文章希望各人以后多多支持脚本之家! 来源:https://www.jb51.net/python/328325359.htm 免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
|手机版|小黑屋|梦想之都-俊月星空
( 粤ICP备18056059号 )|网站地图
GMT+8, 2025-7-1 19:41 , Processed in 0.028337 second(s), 20 queries .
Powered by Mxzdjyxk! X3.5
© 2001-2025 Discuz! Team.