Python并发编程(1)——Python并发编程的几种实现方式

更多精彩内容,请关注同名公众:一点sir(alittle-sir)

Python 并发编程是指在 Python 中编写能够同时执行多个任务的程序。并发编程在任何一门语言当中都是比较难的,因为会涉及各种各样的问题,在Python当中也不例外。Python 提供了多种方式来实现并发,包括多线程(threading)、多进程(multiprocessing)、异步编程(asyncio),以及一些高级用法concurrent.futures和第三方库如gevent。

多线程 (Threading)

多线程是通过使用 threading 模块来创建和管理线程。线程是轻量级的过程,可以与同一进程中的其他线程共享数据和资源。然而,由于 Python 的全局解释器锁(GIL)的存在,如果用的解释器是CPython的话,那么多线程在 CPU 密集型任务上不会有性能提升的,但是IO密集型的是会有的。

python 复制代码
import threading
import time

def worker(num):
    print(f"Worker {num} starting")
    time.sleep(2)
    print(f"Worker {num} finished")

threads = []
for i in range(5):
    t = threading.Thread(target=worker, args=(i,))
    threads.append(t)
    t.start()

# Wait for all threads to complete
for t in threads:
    t.join()
print("All workers finished.")

上面的例子中,通过threading模块中的Thread启动了另一个线程,输出中首先出现的是每个线程的启动消息,如 "Worker 0 starting",然后是 "Worker 1 starting" 等等。

接下来是每个线程的完成消息,如 "Worker 0 finished"。由于线程的执行顺序不是固定的,因此实际输出中的线程完成顺序可能会有所不同。

全局解释器锁(GIL)是历史历史遗留下来的问题,在Python3.13可能会得到解决。

多进程 (Multiprocessing)

多进程则可以通过使用 multiprocessing 模块来创建独立的进程。每个进程都有自己的内存空间,因此可以绕过 GIL,适用于 CPU 密集型任务。

python 复制代码
from multiprocessing import Process
import time

def worker(num):
    print(f"Worker {num} starting")
    time.sleep(2)
    print(f"Worker {num} finished")

processes = []
for i in range(5):
    p = Process(target=worker, args=(i,))
    processes.append(p)
    p.start()

# Wait for all processes to complete
for p in processes:
    p.join()
print("All workers finished.")

多进程与多线程示例类似,但这里是在不同的进程中执行。通过multiprocessing模块中的Process启动了另一个进程,每个进程开始和完成的消息按顺序出现。由于进程之间没有共享内存,每个进程都在独立的环境中运行,因此输出中的完成顺序与启动顺序相同。

异步编程 (Asyncio)

Python 3.4 引入了 asyncio 模块,它是一个用于编写单线程并发代码的模块,使用 async 和 await 关键字。异步编程允许你编写并发代码,以非阻塞的方式运行。这非常适合 I/O 密集型任务,如网络请求、文件操作等。

python 复制代码
import asyncio

async def worker(num):
    print(f"Worker {num} starting")
    await asyncio.sleep(2)
    print(f"Worker {num} finished")

async def main():
    tasks = [worker(i) for i in range(5)]
    await asyncio.gather(*tasks)

asyncio.run(main())
print("All workers finished.")

由于协程是基于事件循环的,因此输出中的完成顺序可能与启动顺序不同。异步编程也是python并发编程中比较重要的一个概念,后面很大篇幅都要围绕这个异步编程来展开的。

使用 concurrent.futures

concurrent.futures 提供了一个高层次的接口来处理并行执行的任务,实际上就是线程池或者进程池的玩意,这个池的概念就是线程或者进程用完不销毁,重复利用,具体后面展开说说。

示例:
python 复制代码
from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor
import time

def worker(num):
    print(f"Worker {num} starting")
    time.sleep(2)
    return f"Worker {num} finished"

with ThreadPoolExecutor(max_workers=5) as executor:
    futures = [executor.submit(worker, i) for i in range(5)]

for future in futures:
    print(future.result())

print("All workers finished.")

首先,创建了一个最大容纳 5 个工作线程的线程池。然后,提交了 5 个 worker 任务到线程池中,并立即返回了 5 个 Future 对象。接着,程序遍历这些 Future 对象,等待每个任务完成,并打印它们的返回值。最后,打印所有工作线程已经完成的消息。不过还是那个问题,由于 Python 的全局解释器锁(GIL),在 CPU 密集型任务中,线程池并不会带来性能上的提升。

以上这些方法都可以根据你的具体需求来选择使用。如果你需要进行更多的细节控制或者有特定的性能要求,你还可以考虑使用更底层的 API 或者第三方库。

更多精彩内容,请关注同名公众:一点sir(alittle-sir)

相关推荐
API快乐传递者1 小时前
淘宝反爬虫机制的主要手段有哪些?
爬虫·python
阡之尘埃3 小时前
Python数据分析案例61——信贷风控评分卡模型(A卡)(scorecardpy 全面解析)
人工智能·python·机器学习·数据分析·智能风控·信贷风控
丕羽6 小时前
【Pytorch】基本语法
人工智能·pytorch·python
bryant_meng6 小时前
【python】Distribution
开发语言·python·分布函数·常用分布
m0_594526307 小时前
Python批量合并多个PDF
java·python·pdf
工业互联网专业8 小时前
Python毕业设计选题:基于Hadoop的租房数据分析系统的设计与实现
vue.js·hadoop·python·flask·毕业设计·源码·课程设计
钱钱钱端8 小时前
【压力测试】如何确定系统最大并发用户数?
自动化测试·软件测试·python·职场和发展·压力测试·postman
慕卿扬8 小时前
基于python的机器学习(二)—— 使用Scikit-learn库
笔记·python·学习·机器学习·scikit-learn
Json____8 小时前
python的安装环境Miniconda(Conda 命令管理依赖配置)
开发语言·python·conda·miniconda
小袁在上班8 小时前
Python 单元测试中的 Mocking 与 Stubbing:提高测试效率的关键技术
python·单元测试·log4j