㊗️本期内容已收录至专栏《Python爬虫实战》,持续完善知识体系与项目实战,建议先订阅收藏,后续查阅更方便~
㊙️本期爬虫难度指数:⭐⭐⭐
🉐福利: 一次订阅后,专栏内的所有文章可永久免费看,持续更新中,保底1000+(篇)硬核实战内容。

全文目录:
-
-
- [🌟 开篇语](#🌟 开篇语)
- [0️⃣ 前言(Preface)](#0️⃣ 前言(Preface))
- [1️⃣ 摘要(Abstract)](#1️⃣ 摘要(Abstract))
- [2️⃣ 背景与需求(Why)](#2️⃣ 背景与需求(Why))
- [3️⃣ 合规与注意事项(必写)](#3️⃣ 合规与注意事项(必写))
- [4️⃣ 技术选型与整体流程(What/How)](#4️⃣ 技术选型与整体流程(What/How))
- [5️⃣ 环境准备与依赖安装(可复现)](#5️⃣ 环境准备与依赖安装(可复现))
- [6️⃣ 核心实现:请求层(Fetcher)](#6️⃣ 核心实现:请求层(Fetcher))
- [7️⃣ 核心实现:解析层(Parser)](#7️⃣ 核心实现:解析层(Parser))
- [8️⃣ 数据存储与导出(Storage)](#8️⃣ 数据存储与导出(Storage))
- [9️⃣ 运行方式与结果展示(必写)](#9️⃣ 运行方式与结果展示(必写))
- [🔟 常见问题与排错(强烈建议写)](#🔟 常见问题与排错(强烈建议写))
- [1️⃣1️⃣ 进阶优化(可选但加分)](#1️⃣1️⃣ 进阶优化(可选但加分))
- [1️⃣2️⃣ 总结与延伸阅读](#1️⃣2️⃣ 总结与延伸阅读)
- [🌟 文末](#🌟 文末)
-
- [✅ 专栏持续更新中|建议收藏 + 订阅](#✅ 专栏持续更新中|建议收藏 + 订阅)
- [✅ 互动征集](#✅ 互动征集)
- [✅ 免责声明](#✅ 免责声明)
-
🌟 开篇语
哈喽,各位小伙伴们你们好呀~我是【喵手】。
运营社区: C站 / 掘金 / 腾讯云 / 阿里云 / 华为云 / 51CTO
欢迎大家常来逛逛,一起学习,一起进步~🌟
我长期专注 Python 爬虫工程化实战 ,主理专栏 《Python爬虫实战》:从采集策略 到反爬对抗 ,从数据清洗 到分布式调度 ,持续输出可复用的方法论与可落地案例。内容主打一个"能跑、能用、能扩展 ",让数据价值真正做到------抓得到、洗得净、用得上。
📌 专栏食用指南(建议收藏)
- ✅ 入门基础:环境搭建 / 请求与解析 / 数据落库
- ✅ 进阶提升:登录鉴权 / 动态渲染 / 反爬对抗
- ✅ 工程实战:异步并发 / 分布式调度 / 监控与容错
- ✅ 项目落地:数据治理 / 可视化分析 / 场景化应用
📣 专栏推广时间 :如果你想系统学爬虫,而不是碎片化东拼西凑,欢迎订阅专栏👉《Python爬虫实战》👈,一次订阅后,专栏内的所有文章可永久免费阅读,持续更新中。
💕订阅后更新会优先推送,按目录学习更高效💯~
0️⃣ 前言(Preface)
本文将带你使用 Python 和 Playwright 框架,直闯快手 Web 端直播间。我们将实现对网页版直播间的自动化挂机监控,实时提取在线观看人数、并捕获公屏上的土豪送礼数据,最终输出为包含时间戳的实时 CSV 日志流。
读完本文,你将获得:
- 掌握针对长连接(WebSocket)及高频动态 DOM 的实时监控策略。
- 学会构建一个"永不宕机"的直播间数据侦听引擎,为电商大屏提供底层数据源。
1️⃣ 摘要(Abstract)
针对快手直播间的高频动态特性,本文采用 Playwright 驱动真实浏览器环境。通过向页面注入定时轮询脚本与 DOM 变动观察者(MutationObserver 思路),结合网络层 WebSocket 监听,实时剥离出当前在线人数与礼物赠送事件,并以追加模式高效持久化至本地文件中。
读完本文,你将获得:
- 真实可运行的快手 Web 直播间挂机采集源码。
- 应对前端二进制加密流(Protobuf)的降维打击实战经验。
2️⃣ 背景与需求(Why)
为什么要爬:
在"直播带货"下半场的今天,数据就是金钱!实时监控头部主播的直播间,分析其"在线人数留存曲线"与"礼物打赏(甚至下单)的高峰节点",是所有 MCN 机构和电商操盘手进行复盘、切片和竞品排摸的核心利器。
目标站点与字段清单:
-
目标页面:
https://live.kuaishou.com/u/{anchor_id}(快手直播 Web 端) -
目标字段:
Timestamp(时间戳):数据捕获的精确时间Room_ID(字符串):主播/直播间标识Viewer_Count(字符串):当前在线人数(如"10万+")Event_Type(字符串):事件类型(Viewer_Update / Gift_Send)Detail_Info(字符串):事件详情(如:"老铁666 送出 穿云箭")
3️⃣ 合规与注意事项(必写)
进入直播间当"内鬼",规矩咱们还是要懂的:🛡️
- 不要发弹幕刷屏:我们是只读模式(Read-Only)的幽灵观察者。千万不要用脚本自动发弹幕带节奏,这极大概率会触犯平台的风控甚至引来法律纠纷。
- 保护用户隐私 :我们只抓取公屏上公开滚动的礼物信息和统计级别人数,绝对不要尝试去抓取送礼用户的私密 ID、手机号等个人信息。
- 尊重版权与带宽:只处理文字与数字特征,不要去疯狂录制或下载直播流的 TS 视频切片。
4️⃣ 技术选型与整体流程(What/How)
技术路线:Playwright 网络监听 + 高频 DOM 轮询
行业内幕提示 :快手真正的实时数据走的是 wss:// (WebSocket) 协议,且数据包是 Protobuf 压缩的乱码。对于轻量级实战,硬解 Protobuf 成本过高(每次快手更新都要重写)。
我们的智慧策略:用 Playwright 挂载到目标页面,依靠浏览器自身的 JS 引擎去把二进制解密并渲染到 DOM 上,我们在 DOM 层面用高频探测器(Interval)把现成的明文数据"摘"下来!
整体流程:
免登录进入直播间 → 屏蔽不必要的媒体加载(省内存) → 挂载 WebSocket 监听器探查心跳 → 启动异步死循环 → 每隔 2 秒抽取人数/礼物容器结构 → 扁平化处理 → 写入 CSV
5️⃣ 环境准备与依赖安装(可复现)
-
Python 版本:3.9+
-
核心库安装:
bashpip install playwright playwright install chromium -
项目结构推荐:
textkuaishou_live_monitor/ ├── live_tracker.py # 核心监听器脚本 └── data/ └── ks_live_events.csv # 实时的英文名日志输出
6️⃣ 核心实现:请求层(Fetcher)
我们要做到轻量化进入直播间。为了防止挂机久了电脑内存爆炸,可以拦截掉不必要的图片加载。
python
import asyncio
from playwright.async_api import async_playwright
import datetime
async def intercept_websocket(web_socket):
"""
高级操作:监听底层的 WebSocket 连接
(这里演示如何捕获 wss 链接,实际解析二进制需 Protobuf schema)
"""
print(f"📡 捕获到 WebSocket 连接: {web_socket.url}")
# web_socket.on("framesent", lambda payload: print("⬆️ 发送心跳包"))
# web_socket.on("framereceived", lambda payload: print("⬇️ 接收到二进制数据包..."))
async def enter_live_room(page, room_id):
"""进入直播间并完成环境初始化"""
url = f"https://live.kuaishou.com/u/{room_id}"
# 监听 WebSocket 连接
page.on("websocket", intercept_websocket)
print(f"🌍 正在闯入直播间: {url}")
await page.goto(url, wait_until="domcontentloaded")
# 等待播放器和侧边栏聊天框渲染完毕
try:
# 快手的在线人数通常在一个具有特定 class 的元素中,这里给出一种通用匹配思路
await page.wait_for_selector("div[class*='live-info']", timeout=15000)
print("✅ 直播间基础 DOM 渲染完毕,开始隐身潜水!")
except Exception:
print("⚠️ 未找到关键 DOM,可能是主播未开播或需要登录验证。")
7️⃣ 核心实现:解析层(Parser)
这是最具挑战性的部分。快手的 DOM 刷新极快,我们要用非阻塞的方式快速切片。
python
async def extract_live_data(page, room_id):
"""提取当前的在线人数和最新礼物动态"""
current_time = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
events = []
try:
# 1. 抽取在线人数 (Viewer Count)
# 快手 Web 端的在线人数往往包含 "w" 或者具体的数字
viewer_loc = page.locator("span:has-text('人观看'), div[class*='viewer-count']")
if await viewer_loc.count() > 0:
viewer_text = await viewer_loc.first.inner_text()
events.append({
"Event_Time": current_time,
"Room_ID": room_id,
"Viewer_Count": viewer_text.strip(),
"Event_Type": "Viewer_Update",
"Detail_Info": "N/A"
})
# 2. 抽取礼物信息 (Gifts)
# 寻找聊天区中特殊的礼物标识(通常会有带色的特效块或特定的 img 标签)
gift_locs = await page.locator("div[class*='gift-message'], div:has(img[alt*='礼物'])").all()
# 为了不重复抓取,我们可以设定一个本地缓存池,但作为基础版,这里获取最近的 3 条
for gift in gift_locs[-3:]:
gift_text = await gift.inner_text()
# 简单清洗:将换行符替换为空格
clean_text = gift_text.replace('\n', ' ').strip()
if clean_text:
events.append({
"Event_Time": current_time,
"Room_ID": room_id,
"Viewer_Count": "N/A", # 礼物事件不强制附带人数
"Event_Type": "Gift_Send",
"Detail_Info": clean_text
})
except Exception as e:
# 直播间 DOM 随时可能销毁/重建,捕获异常防止程序崩溃
print(f"❌ 轮询抽取时发生 DOM 异常: {str(e)[:50]}")
return events
💡 专家提示(容错策略) :在实时抽取时,千万不要用
page.query_selector然后再去查属性,因为还没等你查完,这个 DOM 可能已经被前端的 React/Vue 从内存里销毁了(导致Node is detached from document报错)。使用page.locator().all()获取快照是更安全的选择。
8️⃣ 数据存储与导出(Storage)
实时数据流绝对不能用普通的覆写模式,必须使用 Append (追加) 模式,实时落盘,哪怕电脑突然断电,前面的数据也在!
python
import csv
import os
def append_to_csv(events, filename="data/ks_live_events.csv"):
if not events:
return
os.makedirs(os.path.dirname(filename), exist_ok=True)
fieldnames = ["Event_Time", "Room_ID", "Viewer_Count", "Event_Type", "Detail_Info"]
file_exists = os.path.isfile(filename)
with open(filename, mode='a', newline='', encoding='utf-8-sig') as f:
writer = csv.DictWriter(f, fieldnames=fieldnames)
if not file_exists:
writer.writeheader()
# 实际工程中这里需要加一个基于 MD5(Detail_Info) 的去重逻辑
# 防止同一个礼物在下次轮询时被重复写入
writer.writerows(events)
9️⃣ 运行方式与结果展示(必写)
万事俱备,启动我们的异步监控引擎!
python
async def main():
TARGET_ROOM_ID = "3xx..." # 请替换为你关注的快手主播真实 ID
print("🚀 快手直播间实时侦听引擎启动...")
async with async_playwright() as p:
browser = await p.chromium.launch(
headless=False, # 建议开启界面观察
args=["--mute-audio"] # 🤫 极其重要:静音启动,防止直播声音吓你一跳!
)
context = await browser.new_context(
viewport={'width': 1280, 'height': 800}
)
page = await context.new_page()
await enter_live_room(page, TARGET_ROOM_ID)
# ================= 核心:挂机轮询器 =================
poll_count = 0
try:
while True:
poll_count += 1
# 执行抽取
events = await extract_live_data(page, TARGET_ROOM_ID)
if events:
append_to_csv(events)
print(f"[{poll_count}] ⏱️ 捕获 {len(events)} 条实时事件,已落盘。")
# 休眠 2-3 秒,太快会占满 CPU,太慢会漏掉公屏信息
await asyncio.sleep(2.5)
except KeyboardInterrupt:
print("\n🛑 收到中断信号,正在安全撤离直播间...")
finally:
await browser.close()
if __name__ == "__main__":
asyncio.run(main())
示例结果展示(ks_live_events.csv):
| Event_Time | Room_ID | Viewer_Count | Event_Type | Detail_Info |
|---|---|---|---|---|
| 2024-05-20 20:15:00 | 3xx... | 10.5万人观看 | Viewer_Update | N/A |
| 2024-05-20 20:15:02 | 3xx... | N/A | Gift_Send | 榜一大哥 送出 1x 穿云箭 |
| 2024-05-20 20:15:05 | 3xx... | 10.8万人观看 | Viewer_Update | N/A |
🔟 常见问题与排错(强烈建议写)
-
卡在"请扫码登录"页面进不去直播间?
- 应对手段 :快手 Web 端经常强弹登录墙。参考上文小红书的逻辑,在
launch时加入user_data_dir="./ks_userdata",第一次运行用手机扫个码,后续就可以免密潜入了。
- 应对手段 :快手 Web 端经常强弹登录墙。参考上文小红书的逻辑,在
-
提取的公屏礼物出现大量重复?
- 真相:我们是每隔 2.5 秒去扒一次屏幕,如果直播间冷清,上一条礼物还在屏幕上,就会被重复抓取。
- 终极解法 :在内存中维护一个
set()集合,对Detail_Info进行 Hash 去重,并设置一个 50 条左右的队列长度,先进先出,保证每条数据只存一次。
-
运行半小时后电脑风扇狂转,内存溢出?
- 真相:直播间的弹幕 DOM 节点是在不断无脑增加的,浏览器内存吃不消。
- 解法 :在死循环里,每隔 5 分钟执行一次
await page.evaluate("document.querySelector('.chat-container').innerHTML = ''"),手动帮浏览器清空历史弹幕垃圾。
1️⃣1️⃣ 进阶优化(可选但加分)
- 脱离 DOM 的终极黑客法(Hook JS) :真正的大神,会在 Playwright 页面初始化的瞬间,注入一段 JS 代码:
page.add_init_script("..."),重写(Hook)原生的WebSocket.prototype.send和onmessage。直接把浏览器解密好、准备渲染到屏幕之前的那个 JSON 对象拦截下来!这能做到 100% 不漏抓、且 0 DOM 解析耗时! - Kafka 实时流推送 :把抓取到的礼物信息通过
kafka-python直接推送到大屏数据看板后端,瞬间化身大厂级数据中台。
1️⃣2️⃣ 总结与延伸阅读
复盘: 直播间是一个极度动态的"高压锅"战场。我们利用 Playwright 在这口锅里插入了一根"温度计"(高频轮询器),成功在不触碰复杂二进制解密的前提下,获取了价值极高的商业实时数据,并且完善了落盘与容错机制。
下一步: Web 端的数据毕竟有限。如果你对快手直播监控有强烈的商用需求,强烈建议你了解 Appium + Mitmproxy,直接劫持手机端快手 APP 的网络接口,那里不仅有最全的送礼数据,连用户的下单抢购信息都能一览无余!
🌟 文末
好啦~以上就是本期的全部内容啦!如果你在实践过程中遇到任何疑问,欢迎在评论区留言交流,我看到都会尽量回复~咱们下期见!
小伙伴们在批阅的过程中,如果觉得文章不错,欢迎点赞、收藏、关注哦~
三连就是对我写作道路上最好的鼓励与支持! ❤️🔥
✅ 专栏持续更新中|建议收藏 + 订阅
墙裂推荐订阅专栏 👉 《Python爬虫实战》,本专栏秉承着以"入门 → 进阶 → 工程化 → 项目落地"的路线持续更新,争取让每一期内容都做到:
✅ 讲得清楚(原理)|✅ 跑得起来(代码)|✅ 用得上(场景)|✅ 扛得住(工程化)
📣 想系统提升的小伙伴 :强烈建议先订阅专栏 《Python爬虫实战》,再按目录大纲顺序学习,效率十倍上升~

✅ 互动征集
想让我把【某站点/某反爬/某验证码/某分布式方案】等写成某期实战?
评论区留言告诉我你的需求,我会优先安排实现(更新)哒~
⭐️ 若喜欢我,就请关注我叭~(更新不迷路)
⭐️ 若对你有用,就请点赞支持一下叭~(给我一点点动力)
⭐️ 若有疑问,就请评论留言告诉我叭~(我会补坑 & 更新迭代)
✅ 免责声明
本文爬虫思路、相关技术和代码仅用于学习参考,对阅读本文后的进行爬虫行为的用户本作者不承担任何法律责任。
使用或者参考本项目即表示您已阅读并同意以下条款:
- 合法使用: 不得将本项目用于任何违法、违规或侵犯他人权益的行为,包括但不限于网络攻击、诈骗、绕过身份验证、未经授权的数据抓取等。
- 风险自负: 任何因使用本项目而产生的法律责任、技术风险或经济损失,由使用者自行承担,项目作者不承担任何形式的责任。
- 禁止滥用: 不得将本项目用于违法牟利、黑产活动或其他不当商业用途。
- 使用或者参考本项目即视为同意上述条款,即 "谁使用,谁负责" 。如不同意,请立即停止使用并删除本项目。!!!
