python中的进程线程和协程

目录

在 Python 编程中,进程、线程和协程是实现并发和并行执行任务的三种主要机制。它们之间的关系如下图所示:

下面是它们的简要概述,以及在 Python 中与它们相关的内容。

进程(Process)

操作系统对正在运行程序的抽象,这个就是进程(process)。

比如运行一个 web 浏览器,一个 text 文本,都是运行的一个一个进程。

有的人说:进程是程序运行资源的集合。进程是系统资源分配的最小单位等等。

从静态的角度来说,进程确实是运行程序的各种资源集合。

进程是操作系统分配资源并执行程序的基本单位。每个进程拥有自己的内存空间、数据栈以及其他跟踪执行的辅助数据。进程之间的内存空间是隔离的,因此它们之间的通信需要使用进程间通信机制(如管道、信号、共享内存、套接字等)。

操作系统有多个程序运行,那么就有多个进程,如下所示简图

在 Python 中,你可以使用 multiprocessing 模块来创建进程、管理进程间的通信和同步。

  • multiprocessing.Process:创建一个进程。
  • multiprocessing.Queuemultiprocessing.Pipe:进程间通信。
  • multiprocessing.Pool:用于并行执行任务的进程池。
  • multiprocessing.Valuemultiprocessing.Array:进程间共享数据。
  • 还有很多其他同步原语,如 LockEventSemaphore 等。

多进程代码实例

下面我们展示下使用进程的代码和优势,下面代码是通过使用进程和不使用进程进行四个网页的读取下载,并在最后通过各自的运行时间来进行比较:

import requests
from multiprocessing import Pool
import time

urls = ['https://example.com', 'https://httpbin.org', 'https://github.com', 'https://google.com']

def download_page(url):
    print(f"Downloading {url}...")
    response = requests.get(url)
    print(f"Downloaded {url} with status code {response.status_code}")

# 串行下载网页并测量时间
def serial_download(urls):
    start_time = time.time()
    for url in urls:
        download_page(url)
    end_time = time.time()
    return end_time - start_time

# 并行下载网页并测量时间
def parallel_download(urls):
    start_time = time.time()
    with Pool(4) as pool:
        pool.map(download_page, urls)
    end_time = time.time()
    return end_time - start_time

if __name__ == '__main__':
    print("Starting serial download...")
    serial_time = serial_download(urls)
    print(f"Serial download completed in {serial_time} seconds.")

    print("\nStarting parallel download with multiprocessing...")
    parallel_time = parallel_download(urls)
    print(f"Parallel download completed in {parallel_time} seconds.")

    print("\nComparison:")
    print(f"Serial: {serial_time} seconds")
    print(f"Parallel: {parallel_time} seconds")

运行结果展示如下:

线程(Thread)

线程是进程中的执行序列,一个进程可以包含多个线程,它们共享进程的内存空间和资源。线程之间的通信因此更加容易,可以直接读写同一进程内的数据。然而,因为这种共享,线程安全成为一个需要注意的问题,需要使用锁和其他同步机制来保证数据的一致性。

《操作系统设计与实现》里说:在传统操作系统中,每个进程中只存在一个地址空间和一个控制流(thread)。然后,有些情况下,需要在相同地址空间中有多个控制流并行的运行,就像他们是单独的进程一样(只是他们共享相同的地址空间)。

这些控制流通常被称为线程(thread),有时也称为轻量级进程(lightweight process)。

尽管线程必须在进程中执行,但是线程和进程是可以分别对待处理的两个概念。进程用来集合资源,而线程是 CPU 调度的实体。线程给进程模型增加的是,允许在同一个进程环境中有多个执行流,这些执行流在很大程度上相对独立。也即是说,在进程中,程序执行的最小单位(执行流)是线程,可以把线程看作是进程里的一条执行流。

一个进程里可以有一条或多条线程。

在 Python 中,可以使用 threading 模块来创建和管理线程。

  • threading.Thread:创建一个线程。
  • threading.Lockthreading.RLock:线程锁。
  • threading.Eventthreading.Condition:线程同步。
  • threading.Semaphore:信号量机制。
  • threading.local:线程本地数据。

多线程存在原因及其缺点

在一个应用程序执行过程中,应用程序里可能会有多种事件执行。

而有些事件执行一段时间后可能会被阻塞。如果把应用程序执行事件分解成多个并行运行的线程,即可以让程序设计变得简单,如果有阻塞的,可以把这部分让出行换其他线程执行。

还有一个原因是:线程比进程更轻量级。所以线程比进程更加容易创建,销毁。

第三个跟第一个有点关系,是关于性能的,若多线程都是 CPU 密集型的,那么不能获取性能上增强。如果有大量计算和大量 I/O 处理,那么多线程就可以获取性能上的优势,因为允许多线程重叠执行。

多线程的缺点:

1、对于多线程来说,进程中的资源是共享的,所以会产生资源竞争。

2、当进程中的一个线程崩溃了,会导致这个进程里的其他线程也崩溃。所以有时多进程程序更好,一个进程崩溃不会导致其他进程也崩溃。

多线程代码实例

下面我们展示下使用线程的代码和优势,下面代码是通过使用线程和使用进程进行四个网页的读取下载,并在最后通过各自的运行时间来进行比较:

import requests
import threading
from multiprocessing import Pool
import time

# 网站列表
urls = [
    'https://example.com',
    'https://httpbin.org',
    'https://github.com',
    'https://google.com'
]

# 下载单个页面的函数
def download_page(url):
    print(f"Downloading {url}...")
    response = requests.get(url)
    print(f"Downloaded {url} with status code {response.status_code}")

# 使用多线程下载页面并测量时间
def threaded_download(urls):
    start_time = time.time()
    threads = [threading.Thread(target=download_page, args=(url,)) for url in urls]
    for thread in threads:
        thread.start()
    for thread in threads:
        thread.join()
    end_time = time.time()
    return end_time - start_time

# 使用多进程下载页面并测量时间
def multiprocessing_download(urls):
    start_time = time.time()
    with Pool(4) as pool:
        pool.map(download_page, urls)
    end_time = time.time()
    return end_time - start_time

if __name__ == '__main__':
    print("Starting threaded download...")
    threaded_time = threaded_download(urls)
    print(f"Threaded download completed in {threaded_time} seconds.")

    print("\nStarting multiprocessing download...")
    multiprocessing_time = multiprocessing_download(urls)
    print(f"Multiprocessing download completed in {multiprocessing_time} seconds.")

    print("\nComparison:")
    print(f"Threaded: {threaded_time} seconds")
    print(f"Multiprocessing: {multiprocessing_time} seconds")

代码运行结果展示:

通过这里的结果,我们可以看到线程比进程所用的时间更短,效率更高,

协程(Coroutine)

协程是建立在线程之上,一般是语言级别的 "多线程" 模型,比线程更加的轻量级。有的叫它微线程。它是完全运行在用户态里。协程是在线程之上在进行抽象,它需要线程来承载运行。一个线程可以有多个协程。

协程是一种轻量级的、协作式的并发机制。它允许在单个线程内执行多个任务,通过协作而不是抢占来进行任务切换。协程为异步编程提供了更直观和易用的形式,可以有效地用于 I/O 密集型和高级别的结构化并发任务。

在 Python中,可以使用 asyncio 标准库来创建和管理协程。

  • async def:定义一个协程函数。
  • await:在协程中等待另一个协程的结果。
  • asyncio.run():运行最高层级的协程入口点。
  • asyncio.create_task():调度协程的执行。
  • asyncio.Eventasyncio.Lock 等:用于协程的同步原语。
  • asyncio.Queue:用于协程间的消息传递。

除了上述内容外,第三方库如 geventgreenlet 也提供了对协程的支持和优化,但它们的工作方式与 asyncio 不同。

Python 中的协程特别适合编写异步I/O操作,如Web服务器、客户端库等,因为它们在等待网络响应或磁盘I/O等操作的过程中可以挂起函数执行,让出控制权,允许其他协程运行。

协程线程关系图:

协程的优点

1、协程栈很小,只有几KB,而线程栈是 1 M,对比起来,创建大量协程需要的内存更少。

2、协程的调度是语言提供的 runtime 来调度,是在用户空间直接调度,不需要在内核空间和用户空间来回切换,浪费效率。

3、能更好的利用 cpu 的多核,提高程序执行性能。

4、避免阻塞,如果协程所在的线程发生了阻塞,那么协程调度器可以把运行在阻塞线程上的协程,调度到其它没有发生阻塞的线程上,继续运行。

协程代码实例

下面我们展示下使用协程的代码和优势,下面代码是通过使用协程同线程、进程进行四个网页的读取下载,并在最后通过各自的运行时间来进行比较:

import time
import threading
import asyncio
import aiohttp
from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor

urls = ['https://example.com', 'https://httpbin.org', 'https://github.com', 'https://google.com']

# 同步下载页面的函数(用于线程和进程)
def download_page(url):
    with aiohttp.ClientSession() as session:
        with session.get(url) as response:
            return f"Downloaded {url} with status code {response.status}"

# 使用多线程下载页面
def threaded_download(urls):
    with ThreadPoolExecutor(max_workers=4) as executor:
        executor.map(download_page, urls)

# 使用多进程下载页面
def multiprocessing_download(urls):
    with ProcessPoolExecutor(max_workers=4) as executor:
        executor.map(download_page, urls)

# 异步下载页面
async def async_download_page(session, url):
    async with session.get(url) as response:
        return f"Downloaded {url} with status code {response.status}"

async def async_download_all_pages():
    async with aiohttp.ClientSession() as session:
        tasks = [async_download_page(session, url) for url in urls]
        return await asyncio.gather(*tasks)

# 测量函数执行时间的装饰器
def timeit(method):
    def timed(*args, **kw):
        ts = time.time()
        result = method(*args, **kw)
        te = time.time()
        print(f"{method.__name__} executed in {(te - ts):.2f} seconds")
        return result
    return timed

@timeit
def measure_threaded():
    threaded_download(urls)

@timeit
def measure_multiprocessing():
    multiprocessing_download(urls)

@timeit
async def measure_asyncio():
    await async_download_all_pages()

# 顺序运行三种方法并比较时间
if __name__ == '__main__':
    measure_threaded()
    measure_multiprocessing()
    asyncio.run(measure_asyncio())

进程、线程和协程适合的任务性质和环境

多进程更适合的场景

1、CPU密集型任务:

对于计算密集型操作,多进程通常比多线程更好,这是因为每个进程有自己的GIL,能够在多核处理器上并行运行,实现真正的并行计算。

2、内存隔离和安全:

进程之间的内存是隔离的,所以对于需要高安全性或内存隔离的任务,使用多进程会更安全,可以防止数据泄露或污染。

3、大规模并发和稳定性:

对于需要很多并发执行单元,但其中一些可能会因为异常或必须被杀死的任务,进程可能是更好的选择,因为一个进程崩溃不会影响到其他进程,而线程崩溃可能会影响整个应用程序的稳定性。

多线程更适合的场景

1、I/O密集型任务:

如果任务主要是I/O密集型的,例如网络请求或文件读写操作,线程通常能够提供很好的性能,因为当一个线程等待I/O操作时,其他线程可以继续执行。在Python中,虽然全局解释器锁(GIL)限制了同一时刻只有一个线程执行Python字节码,但I/O密集型任务在等待数据时会释放GIL,允许其他线程运行。

2、上下文切换开销小:

线程比进程有更小的内存占用和更快的创建及上下文切换时间。进程需要更多的资源和时间来创建,因为每个进程有自己独立的地址空间,而线程则共享内存地址空间。

3、GIL的影响有限:

由于下载任务主要是在等待网络响应,这意味着大部分时间线程并不持有GIL。因此,即使是在CPython这样的环境中,线程也可能是高效的。

协程更适合的场景

1、更高的I/O效率------非阻塞I/O操作:

协程可以在I/O操作等待数据时挂起,并让出CPU控制权给其他协程。这样可以处理大量的并发网络I/O,非常适合开发高效的网络服务器和客户端。

2、轻量级任务管理:

相对于进程和线程,协程拥有更小的内存占用,因为任务之间共享内存空间并且上下文切换开销很小。这允许程序员创建数以万计的协程而不会大量耗费系统资源。

3、简化的异步编程:

使用协程库(如Python中的asyncio),可以用顺序的方式编写非阻塞代码,降低了异步编程的复杂性。

4、更好的调度控制:

协程的调度是在用户空间完成的,这给了程序员更大的灵活性去控制任务执行的顺序。

相关推荐
咸鱼桨几秒前
《庐山派从入门到...》PWM板载蜂鸣器
人工智能·windows·python·k230·庐山派
yusaisai大鱼16 分钟前
tensorflow_probability与tensorflow版本依赖关系
人工智能·python·tensorflow
Biomamba生信基地20 分钟前
R语言基础| 功效分析
开发语言·python·r语言·医药
CodeClimb35 分钟前
【华为OD-E卷-木板 100分(python、java、c++、js、c)】
java·javascript·c++·python·华为od
夜幕龙42 分钟前
iDP3复现代码数据预处理全流程(二)——vis_dataset.py
人工智能·python·机器人
晚夜微雨问海棠呀1 小时前
长沙景区数据分析项目实现
开发语言·python·信息可视化
cdut_suye1 小时前
Linux工具使用指南:从apt管理、gcc编译到makefile构建与gdb调试
java·linux·运维·服务器·c++·人工智能·python
dundunmm2 小时前
机器学习之scikit-learn(简称 sklearn)
python·算法·机器学习·scikit-learn·sklearn·分类算法
古希腊掌管学习的神2 小时前
[机器学习]sklearn入门指南(1)
人工智能·python·算法·机器学习·sklearn
一道微光2 小时前
Mac的M2芯片运行lightgbm报错,其他python包可用,x86_x64架构运行
开发语言·python·macos