python网络编程学习笔记

  1. 知识点框架
  1. 协议栈与库
  2. 端口号、套接字、绑定接口、udp分组、套接字选项、广播
  3. TCP工作原理,套接字的含义,每个会话使用一个套接字,地址已被占用,绑定接口,死锁,已关闭连接,半开连接,像文件一样使用TCP流
  4. 主机名与套接字,现代地址解析,DNS协议
  5. 字节与字符串,封帧与引用,pickle与自定义定界符的格式,xml与json,压缩,未来异常
  6. 生成证书,TLS负载移除,手动选择加密算法与完美前向安全,支持tls的协议
  7. 一个简单的协议,单线程服务器,多线程与多进程服务器,异步服务器,在inetd下运行
  8. 散列与分区,消息队列
  9. python客户端库、端口加密与封帧、方法、路径与主机、状态码、缓存与验证、传输编码、内容协商、内容类型、HTTP认证、cookie、连接-keep-alive和httplib
  10. WSGI、异步服务器与框架、前向代理和反向代理、4种架构、GET、post、rest、不使用web框架编写wsgi可调用对象
  11. 电子邮件消息格式、构造电子邮件消息、解析电子邮件消息、遍历MIME部件、邮件头编码、解析日期
  12. 电子邮件客户端与web邮件服务、smtp的使用方法、错误处理与会话调试、从EHLO获取信息、使用安全套接层和传输层安全协议、认证的SMTP
  13. pop服务器的兼容性、连接与认证、获取邮箱信息、消息的下载与删除
  14. IMAP、命令行自动化、Telnet、SSH、FTP、RPC
  1. 具体知识点的简要

协议栈:是一组分层的网络协议,用于管理网络通信中的各种功能,例如 OSI 模型和 TCP/IP 模型。

OSI **模型:**OSI模型(Open Systems Interconnection Model)是一个抽象的网络通信模型,由七层组成:

  1. 物理层(Physical Layer :传输原始比特流。
  2. 数据链路层(Data Link Layer :处理帧的传输,包括错误检测和纠正。
  3. 网络层(Network Layer :管理数据包的路由和转发。
  4. 传输层(Transport Layer :提供端到端通信、流量控制和错误检测。
  5. 会话层(Session Layer :管理会话和连接。
  6. 表示层(Presentation Layer :处理数据格式转换、加密解密等。
  7. 应用层(Application Layer :提供网络服务和应用,如HTTP、FTP等。

TCP/IP **模型:**TCP/IP模型是互联网的基础协议栈,由四层组成:

  1. 网络接口层(Network Interface Layer :相当于OSI模型的物理层和数据链路层。
  2. 互联网层(Internet Layer :相当于OSI模型的网络层,主要协议是IP。
  3. 传输层(Transport Layer :包括TCP和UDP协议,负责端到端通信。
  4. 应用层(Application Layer :提供应用层协议,如HTTP、FTP、SMTP等。

库:是一组预先编写的代码,提供对网络协议的实现和抽象,使开发人员可以更方便地进行网络编程。

TCP/IP 协议仅仅支持在客户端和服务器之间传输字节串。

HTTP 协议描述了客户端如何通过 TCP/IP 建立的连接来请求特定的文档。以及服务器如何响应并提供相应的结果。

万维网将获取由 HTTP 托管的文档所需的指令编码为一个特殊的地址,这个地址称为 URL

在服务器需要向客户端返回结构化数据时,标准 JSON 数据格式是最流行的表示返回文档的格式。

每当需要在网络上传输文本信息,或将文本信息以字节的方式存储到磁盘等存储设备上时,都要将字符编码为字节。现代互联网最常用的方法是简单而又有限的 ASCII 编码以及强大而通用的 Unicode 系统。其中, UTF-8 是尤为常见的 Unicode 编码方法可以使用 Python decode() 将字节串转换为实际字符。 encode() 方法则可以用于反向的转换。 Python3 做了一项尝试,永远不会自动将字节转换为字符串,原因在于要正确完成这一转换操作,就必须事先知道所使用的编码方法,否则只能靠猜。因此,比起 Python2 ,使用 Python3 编写代码时,需要更多地调用 decode() encode() 方法

由于 IP 网络帮助应用程序传输数据包,网络管理员、设备供应商和操作系统程序员一起协力为单独的机器分配了 IP 地址,在机器以及路由器上建立了路由表,并配置了域名系统以将 IP 地址和用户可见的域名关联起来。

Python 程序员应该知道,每个 IP 数据包在发往目的地址时,都有自己的传输路径。另外,如果一个数据包超过了传输路径上路由器间一跳的大小限制,那么就可能会对这个数据包进行分组。

在大多数应用程序中,有两种使用 IP 的基本方法。第一种是,将每个数据包视为独立的信息来使用 : 另一种则是,请求一个被自动分为多个数据包的数据流。这两种协议分别叫作 UDP TCP

数据包分组: Ip 支持的数据包最大可达 64kb ,但实际的网络设备一般不会支持这么大,例如以太网设备的 1500B DF 标记表示不分组,如果设置了 DF 标记那么当网络无法容纳数据包就会丢弃并返回错误信息。 MTU 最大传输单元,表示能够接受的最大的数据包。

用户数据报协议使得用户级程序能够在 IP 网络中发送独立的数据包。通常情况下,客户端程序向服务器发送一个数据包,而服务器通过每个 UDP 数据包中包含的返回地址发送响应数据包。

POSIX 网络栈让我们能够通过"套接字"的概念来操作 UDP 。套接字是一个通信端点,给出了 IP 地址和 UDP 端口号。 IP 地址和 UDP 端口的二元组叫作套接字的名字 (name) 或地址 (address) ,可以用来发送与接收数据报。 Python 通过内置的 socket 模块提供了这些网络操作原语。服务器在接收数据包时需要使用 bind() 绑定一个 IP 地址和端口。由于操作系统会自动为客户端的 UDP 程序选择一个端口号,客户端的 UDP 程序可以直接发送数据包。

UDP 建立在网络数据包的基础上,因此它是不可靠的。丢包现象发生的原因可能是网络传输媒介的故障,也可能是某个网段过于繁忙。因此,客户端需要弥补 UDP 的不可靠性,不断重发请求直至收到响应为止。为了不使繁忙的网络情况变得更糟,客户端应该在重复传输失败时使用指数退避。

指数退避:如果请求往返于服务器和客户端之间的时间超过了最初设置的等待时间,那么应该延长该等待时间。

请求 ID 是解决重复响应问题的重要利器。重复响应问题指的是,我们收到所有数据包后,又收到了一个被认为已经丢失的响应。此时可能会把该响应误认为是当前请求的响应。如果随机选择请求 ID 的话,就可以预防最简单的电子欺诈攻击。

使用套接字时有一点至关重要,那就是区分绑定 (binding) 和客户端的连接 (connecting) 这两个行为。绑定指定了要使用的特定 UDP 端口,而连接限制了客户端可以接收的响应,表示只接收从正在连接的特定服务器发来的数据包。

在可用于 UDP 套接字的套接字选项中,功能最强大的就是广播。使用广播可以一次向子网内的所有主机发送数据包,而无需向每台主机单独发送。这在编写本地 LAN 游戏或其他协作计算程序时是很有用的。这也是在编写新应用程序时选用 UDP 的原因之一。

UDP 是比较原始的协议,需要我们自己来处理有关于报错的情况,使用 TCP 协议则会自动帮我们处理这些问题。

TCP 的工作原理如下:每个 TCP 数据包都有一个序列号,接收方通过该序列号将响应数据包正确排序。也可通过该序列号发现传输序列中丢失的数据包,并请求进行重传。 TCP 并不使用顺序的整数 (1 2 3 ...... ) 作为数据包的序列号,而是通过一个计数器来记录发送的字节数。例如,如果一个包含 1024 字节的数据包的序列号为 7200 ,那么下一个数据包的序列号就是 8224 。这意味着,繁忙的网络栈无需记录其是如何将数据流分割为数据包的。当需要进行重传时,可以使用另一种分割方式将数据流分为多个新数据包 ( 如果需要传输更多字节的话,可以将更多数据包装入一个数据包 ) ,而接收方仍然能够正确接收数据包流。在一个优秀的 TCP 实现中 , 初始序列号是随机选择的。这样一来,不法之徒就无法假设每个连接的序列号都从零开始。如果 TCP 的序列号易于猜测,那么伪造数据包就容易多了。可以将数据包伪造成一个会话的合法数据,这样就有可能攻击这个会话了。这对于我们来说可不是件幸运的事儿。 TCP 并不通过锁步的方式进行通信,因为如果使用这种方式,就必须等待每个数据包都被确认接收后才能发送下一个数据包,速度非常慢。相反, TCP 无须等待响应就能一口气发送多个数据包。在某一时刻发送方希望同时传输的数据量叫作 TCP 窗口 (window) 的大小。接收方的 TCP 实现可以通过控制发送方的窗口大小来减缓或暂停连接。这叫作流量控制 (fowcontrol) 。这使得接收方在输人缓冲区已满时可以禁止更多数据包的传输。此时如果还有数据到达的话,那么这些数据也会被丢弃,最后,如果 TCP 认为数据包被丢弃了,它会假定网络正在变得拥挤,然后减少每秒发送的数据量。这对于无线网络和其他会因为简单的噪声而导致丢包的媒体来说可是个灾难。它会破坏本来运行良好的连接,导致通信双方在一定时间内 ( 比如 20 ) 无法通信,直到路由器重启通信才能恢复正常。网络重新连接时, TCP 通信双方会认为网络负载已经过重,因此一开始就会拒绝向对方发送大型数据。

基于 TCP 的"流"套接字提供了所有必需的功能,包括重传丢失数据包、重新排列接收到的顺序错误的数据包,以及将大型数据流分割为针对特定网络的具有最优大小的数据包。这些功能提供了对在网络上两个套接字之间传输并接收数据流的支持。

UDP 一样的是, TCP 也使用端口号来区分同一台机器上可能存在的多个流端点。想要接收 TCP 连接请求的程序需要通过 bind() 绑定到一个端口,在套接字上运行 1isten() ,然后进入一个循环,不断运行 accept(), 为每个连接请求新建一个套接字 ( 该套接字用于与特定客户端进行通信 ) 。如果程序想要连接到已经存在的服务器端口 , 那么只需要新建一个套接字 , 然后调用 connect() 连接到一个地址即可。

服务器通常都要为绑定的套接字设置 SOREUSEADDR 选项,以防同一端口上最近运行的正在关闭中的连接阻止操作系统进行绑定。

实际上,数据是通过 send() recv() 来发送和接收的。一些基于 TCP 的协议会对数据进行标记这样客户端和服务器就能够自动得知通信何时完成。其他协议把 TCP 套接字看作真正的流,会不断发送和接收数据,直到文件传输结束。套接字方法 shutdown() 可以用来为套接字生成一个方向上的文件

结束符 ( 所有套接字本质上都是双向的 ) ,同时保持另一方向的连接处于打开状态。如果通信双方都写数据,套接字缓冲区被越来越多的数据填满,而这些数据却从未被读取,那么就可能会发生死锁。最终,在某个方向上会再也无法通过 send() 来发送数据,然后可能会永远等待缓冲区清空,从而导致阻塞。如果想要把一个套接字传递给一个支持读取或写人普通文件对象的 Python 模块,可以使用 makefile() 方法。该方法返回一个 Python 对象。调用方需要读取及写人数据时,该对象会在底层调用 recv() send()

Python 程序通常需要将主机名转换为可以实际连接的套接字地址

多数主机名查询都应该通过 socket 模块的 getsockaddr() 函数完成。这是因为,该函数的智能性通常是由操作系统提供的。它不仅知道如何使用所有可用的机制来查询域名,还知道本地 IP 栈配置支持的地址类型 (IPv4 IPv6)

传统的 IPv4 地址仍然是互联网上最流行的,但 IPv6 正在变得越来越常见。通过使用 getsockaddr() 进行主机名和端口号的查询, Python 程序能够将地址看成单一的字符串,而无需担心如何解析与解释地址。

DNS 是多数名称解析方法背后的原理。它是一个分布在世界各地的数据库,用于将域名查询直接指向拥有相应域名的机构的服务器,将域名转化为对应的 ip 地址(服务器)。尽管在 Python 中直接使用原始 DNS 查询的频率不高,但是它在基于电子邮件地址中 @ 符号后的域名直接发送电子邮件时还是很有帮助的 .

要把机器信息存放到网络上,就必须先进行相应的转换。无论我们的机器使用的是哪种私有的特定存储机制,转换后的数据都要使用公共且可重现的表示方式。这样的话,其他系统和程序,甚至其他编程语言才能够读取这些数据。

要把机器信息存放到网络上,就必须先进行相应的转换。无论我们的机器使用的是哪种私有的特定存储机制,转换后的数据都要使用公共且可重现的表示方式。这样的话,其他系统和程序,甚至其他编程语言才能够读取这些数据。

对于文本来说,最重要的问题就是选择一种编码方式,将想要传输的字符转换为字节。这是因为,包含 8 个二进制位的字节是 IP 网络上的通用传输单元。我们需要格外小心地处理二进制数据,以确保字节顺序能够兼容不同的机器。 Python struct 模块就是用来帮助解决这个问题的。有时候,最好使用 JSON XML 来发送数据结构和文档。这两种格式提供了在不同机器之间共享结构化数据的通用方法。

使用 TCP/IP 流时,我们会面临的一个重要问题,那就是封帧,即在长数据流中,如何判定一个特定消息的开始与结束。为了解决这个问题,有许多技术可供选用。由于 recv() 每次可能只返回传输的部分信息,因此无论使用哪种技术,都需要小心处理。为了识别不同的数据块,可以使用特殊的定界符或模式、定长消息以及分块编码机制来设计数据块

Python pickle 除了能把数据结构转换为能用于网络传输的字符串外,还能够识别接收到的 pickle 的结束符。这使得我们不仅可以使用 pickle 来为数据编码,也可以使用 pickle 来为单独的流消息封帧。压缩模块 zlib 通常会和 HTTP 一起使用。它也可以识别压缩的数据段何时结束,也因此提供了一种花销不高的封帧方法。与我们的代码使用的网络协议一样,套接字也可以抛出各种异常。

何时使用 try...except 从句取决于代码的用户 -- 我们是为其他开发者编写库还是为终端用户编写工具 ? 除此之外,这一选择也取决于代码的语义。如果从调用者或终端用户的角度来看 , 某个代码段进行的是同一个较为宏观的操作那么就可以将整个代码段放在一个 try...except 从句中。

最后,如果某个操作引发的错误只是暂时的,而调用晚些时候可能会成功,并且我们希望该操作能自动重试的话,就应将其单独包含在一个 try...except 从句中。

在一个典型的 TLS 交换场景中,客户端向服务器索取证书 -- 表示身份的电子文件。客户端与服务器共同信任的某个机构应该对证书进行签名。证书中必须包含一个公钥。之后服务器需要证明其确实拥有与该公钥对应的私钥。客户端要对证书中声明的身份进行验证,确定该身份是否与想连接的主机名匹配。最后,客户端与服务器就加密算法、压缩以及密钥这些设定进行协商,然后使用协商通过的方案对套接字上双向传输的数据进行保护

许多管理员甚至都没有尝试在他们的应用程序中支持 TLS 。反之,他们把应用程序隐藏在了工业强度的前端工具之后,比如 Apache nginx 或是 HAProxy 这些可以自己提供 TLS 功能的工具。在前端使用了内容分发网络的服务也必须把支持 TLS 功能的责任留给第三方工具,而不是将其嵌入自己的应用程序中。

尽管网络搜索的结果会提供一些使用第三方库在 Python 中提供 TLS 支持的建议,不过 Python 标准库的 ss1 模块实际上已经内置了对 OpenSSL 的支持。如果我们的操作系统以及 Python 版本上支持 ss1 模块,而且它能正常工作,那么只需要一个服务器的证书,就可以建立基本的加密连接。由 Python 3.4 或更新版本 Python( 如果应用程序要自己提供 TLS 支持,强烈建议至少使用 3.4 版本编写的应用程序通常会遵循如下模式 : 先创建一个"上下文"对象,然后打开连接,调用上下文对象的 wrap socket() 方法,表示使用 TLS 协议来负责后续的连接。尽管可以在旧式风格的代码中看到 ss] 模块提供的一个或两个简短形式的函数 , 但是上下文 - 连接 - 包装这一模式才是最通用 , 也是最灵活的许多 Python 客户端和服务器都能够直接接受 ss1.create default context() 返回的默认"上下文对象作为参数,并使用该对象提供的设置。服务器使用默认设置时设置更为严格,而客户端使用默认设置时则较为宽松一些,这样客户端就能够成功连接到一些只支持旧版本 TLS 的服务器了。其他 Python 应用程序为了根据它们的特定需求定制协议及加密算法,会自己实例化 SSLContext 对象。

SSL 工作原理如下: 握手协议:在建立连接之前,客户端和服务器之间会进行一个握手协议。这包括以下步骤: 客户端 Hello :客户端向服务器发送一个 Hello 消息,其中包含支持的 SSL/TLS 版本、加密算法、压缩方法等信息。服务器 Hello :服务器回复一个 Hello 消息,确认使用的协议版本和加密套件。密钥交换:服务器向客户端发送一个公钥,用于加密通信。客户端生成一个随机的对称密钥,使用服务器的公钥进行加密,并将其发送回服务器。会话密钥生成:服务器使用私钥解密客户端发送的密文,获取对称密钥。现在,客户端和服务器都有了相同的会话密钥,用于加密和解密数据。

数据加密和认证:一旦握手完成,客户端和服务器之间的通信就可以开始了。 SSL 使用对称密钥加密算法(如 AES )来加密数据,确保数据在传输过程中不被窃取。此外, SSL 还使用数字证书来验证服务器的身份,防止中间人攻击。

数字证书:服务器使用数字证书来证明其身份。数字证书由受信任的证书颁发机构( CA )签发,其中包含服务器的公钥和其他信息。客户端可以验证证书的有效性,确保连接到的是合法的服务器。

使用多线程时通常可以不加修改地使用单线程服务器程序 , 操作系统会负责隐式地完成切换 , 使得等待中的客户端能够快速得到响应而空闲的客户端则不会消耗服务器的 CPU 。这一技术不仅允许同时进行多个客户端会话,而且很好地利用了服务器的 CPU 。而对于原始的单线程服务器,由于其大多数时间都在等待客户端的操作,因此 CPU 在很多时候都是空闲的。

更复杂但是更强大的方法是使用异步编程的风格在单个控制线程中完成对大量客户端的服务切换。这种方法向操作系统提供了当前正在进行会话的完整套接字列表。复杂之处在于需要将读取客户端请求然后构造响应的过程分割为小型的非阻塞代码块,这样就能在等待客户端操作时将控制权交还给异步框架。

异步:发送一个消息给一个客户端,不必等待回应,直接给下一个准备好的客户端发消息。

尽管可以通过 select() po11() 这样的机制手动编写异步服务器,不过多数程序员还是会使用一个框架来提供异步功能,比如 Python3.4 或更新版本 Python 标准库中内置的 asyncio 框架。将编写的服务安装到服务器上,并且在系统启动时运行服务器的过程叫作部署 (deployment) 。可以使用许多现代机制进行自动化部署,比如使用 supervisord 这样的工具或是将控制权交给一个"平台即服务"容器。在一台基本的 Linux 服务器上可以使用的最简单的部署方法可能就是古老的 inetd 守护进程了。 inetd 提供了一种极其简单的方法,能够在客户端需要连接时保证服务处于启动状态。

消息队列是另一个为应用程序的不同部分提供协作与集成功能的机制。在协作与集成过程中,可能需要不同的硬件、负载均衡技术、平台,甚至是编程语言。普通的 TCP 套接字只能提供点对点连接的功能,但是消息队列能够将消息发送到多个处于等待状态的用户或服务器。

消息队列同样也可以使用数据库或其他持久化存储机制来保证消息在服务器未正常启动时不会丢失。除此之外,由于系统的一部分暂时成为性能的瓶颈时,消息队列允许将消息存储在队列中等待服务,因此消息队列也提供了可恢复性和灵活性。消息队列隐藏了为特定类型的请求提供服务的服务器或进程,因此在断开服务器连接、升级服务器、重启服务器以及重连服务器时无需通知系统的其余部分。

许多程序员会通过友好的 API 来使用消息队列,比如 Django 社区中非常流行的 Celery 项目。 Celery 也可以使用 Redis 来作为后端。

Redis 与消息队列的相似之处在于它们都支持 FIFO( 先进先出队列 ).

消息队列的基本原理如下:

  1. 消息存储:消息队列本质上是消息的链表,每个消息都有一个关联的优先级和标识符。这些消息通常存放在内存中,由消息队列管理器进行管理。
  2. 生产者和消费者:当一个进程(生产者)需要向另一个进程(消费者)发送消息时,它将消息放入消息队列中。接收进程从队列中读取并处理消息。
  3. 先进先出( FIFO ):消息队列遵循先进先出的原则,即最早进入队列的消息将最先被处理。

HTTP 协议用于根据保存资源的主机名和路径来获取资源。标准库的 urllib 客户端提供了在简单情况下获取资源所需的基本功能。但是,比起 Requests urlib 的功能就弱了很多。 Requests 提供了许多 urllib 没有的特性,是互联网上最热门的 Python 库。程序员如果想要从网上获取资源的话, Requests 是最佳选择。

HTTP 运行于 80 端口,通过明文发送。而通过 TLS 保护的 HTTP(HTTPS) 则在 443 端口运行。客户端的请求和服务器的响应在传输过程中都使用相同的基本结构 : 首行信息,然后是若干行由名字和值组成的 HTTP 头信息,最后是一个空行,然后是可选的消息体。消息体可以使用多种不同的方式进行编码和分割。客户端总是先发送请求,然后等待服务器返回响应。最常用的 HTTP 方法是用于获取资源的 GET 和用于更新服务器信息的 POST 。除了 GET POST 之外,还有其他方法,不过本质上都与 GET POST 类似。服务器在每个响应中都会返回一个状态码。表示请求成功、失败或需要客户端重定向以载入另一个资源。

HTTP 的设计采用了像同心圆一样的分层结构。可以对头信息进行缓存,将资源存储在客户端的缓存中,这样可以重复使用资源,避免不必要的重复获取。这些缓存的头信息也可以避免服务器重复

发送没有修改过的资源。这两种优化方法对于繁忙站点的性能都至关重要。内容协商可以保证根据客户端和人类用户的真实偏好来决定返回的数据格式和语言。不过在实际应用中,内容协商会带来一些问题,这使得它没有得到广泛应用。内置的 HTTP 认证在交互设计上很糟糕,已经被自定义的登录页面和 cookie 替代。不过,在使用 TLS 保护的 API 时,有时还是会使用基本认证。

HTTP/1.1 版的连接在默认情况下是保持打开并且可以复用的,而 Requests 库也在需要的时候精心提供了这一功能。

  1. 运用
  1. python 中模拟消息队列

    import queue
    import threading
    import time

    创建一个队列对象

    message_queue = queue.Queue()

    def producer():
    for i in range(5):
    item = f"Message {i}"
    print(f"Producing {item}")
    message_queue.put(item) # 将消息放入队列
    time.sleep(1) # 模拟生产消息的延迟

    def consumer():
    while True:
    item = message_queue.get() # 从队列中获取消息
    if item is None: # 如果获取到None,表示生产者结束生产
    break
    print(f"Consuming {item}")
    time.sleep(2) # 模拟处理消息的延迟

    创建生产者和消费者线程

    producer_thread = threading.Thread(target=producer)
    consumer_thread = threading.Thread(target=consumer)

    启动线程

    producer_thread.start()
    consumer_thread.start()

    等待生产者线程完成

    producer_thread.join()

    向消费者线程发送结束信号

    message_queue.put(None)

    等待消费者线程完成

    consumer_thread.join()

  2. python 多线程发送处理消息

    import queue
    import threading
    import time

    创建一个队列对象

    message_queue = queue.Queue()

    def producer(thread_id):
    for i in range(5):
    item = f"Message {i} from producer {thread_id}"
    print(f"Producer {thread_id} producing {item}")
    message_queue.put(item)
    time.sleep(1)

    def consumer(thread_id):
    while True:
    item = message_queue.get()
    if item is None:
    break
    print(f"Consumer {thread_id} consuming {item}")
    time.sleep(2)

    创建多个生产者和消费者线程

    producer_threads = [threading.Thread(target=producer, args=(i,)) for i in range(2)]
    consumer_threads = [threading.Thread(target=consumer, args=(i,)) for i in range(2)]

    启动所有生产者线程

    for thread in producer_threads:
    thread.start()

    启动所有消费者线程

    for thread in consumer_threads:
    thread.start()

    等待所有生产者线程完成

    for thread in producer_threads:
    thread.join()

    向消费者线程发送结束信号

    for _ in range(len(consumer_threads)):
    message_queue.put(None)

    等待所有消费者线程完成

    for thread in consumer_threads:
    thread.join()

  3. python 异步发送处理消息

    import asyncio

    async def producer(queue, id):
    for i in range(5):
    item = f"Message {i} from producer {id}"
    print(f"Producer {id} producing {item}")
    await queue.put(item) # 异步放入队列
    await asyncio.sleep(1) # 模拟生产消息的延迟

    async def consumer(queue, id):
    while True:
    item = await queue.get() # 异步从队列中获取消息
    if item is None:
    break
    print(f"Consumer {id} consuming {item}")
    await asyncio.sleep(2) # 模拟处理消息的延迟

    async def main():
    queue = asyncio.Queue()

     producers = [asyncio.create_task(producer(queue, i)) for i in range(2)]
     consumers = [asyncio.create_task(consumer(queue, i)) for i in range(2)]
    
     await asyncio.gather(*producers)
    
     # 向消费者发送结束信号
     for _ in range(len(consumers)):
         await queue.put(None)
    
     await asyncio.gather(*consumers)
    

    运行异步任务

    asyncio.run(main())

相关推荐
四口鲸鱼爱吃盐23 分钟前
Pytorch | 利用AI-FGTM针对CIFAR10上的ResNet分类器进行对抗攻击
人工智能·pytorch·python
是娜个二叉树!31 分钟前
图像处理基础 | 格式转换.rgb转.jpg 灰度图 python
开发语言·python
互联网杂货铺34 分钟前
Postman接口测试:全局变量/接口关联/加密/解密
自动化测试·软件测试·python·测试工具·职场和发展·测试用例·postman
南七澄江2 小时前
各种网站(学习资源及其他)
开发语言·网络·python·深度学习·学习·机器学习·ai
无泡汽水3 小时前
漏洞检测工具:Swagger UI敏感信息泄露
python·web安全
暮暮七3 小时前
理想很丰满的Ollama-OCR
linux·python·大模型·ocr·markdown·ollama
ai_lian_shuo4 小时前
四、使用langchain搭建RAG:金融问答机器人--构建web应用,问答链,带记忆功能
python·ai·金融·langchain·机器人
cwj&xyp7 小时前
Python(二)str、list、tuple、dict、set
前端·python·算法
是十一月末7 小时前
Opencv实现图片的边界填充和阈值处理
人工智能·python·opencv·计算机视觉