爬某网站延禧宫率第一集视频

python 复制代码
import requests
import re
from tqdm import tqdm
# 网址链接:https://v.ijujitv.cc/play/24291-1-1.html
url = 'https://v6.1080pzy.co/20220801/urxniJCN/hls/index.m3u8'
headers = {
    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36",
    "Referer":"https://jx.ijujitv.cc/"
}

m3u8_data = requests.get(url=url,headers=headers).text
m3u8_data = re.sub("#EXTM3U",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-VERSION:\d",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-TARGETDURATION:\d",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-PLAYLIST-TYPE:VOD",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-MEDIA-SEQUENCE:\d",'',m3u8_data)
m3u8_data = re.sub("#EXTINF:\d\.\d+,",'',m3u8_data)
m3u8_data = re.sub("#EXTINF:\d,",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-ENDLIST",'',m3u8_data).split()
for m3u8_url in tqdm(m3u8_data):
    content = requests.get(url=m3u8_url,headers=headers).content
    with open('延禧宫率'+'.mp4',mode='ab') as f:
        f.write(content)

爬取的页面如下:

爬取步骤:

又点击检查-network-xhr,发现有许多ts文件,复制浏览即会下载。-在搜索框搜索m3u8,找到一个html的包,如下。

点开后发现其为:

得到了所有ts的包,进行访问提取所有的ts路径代码。

相关推荐
APIshop1 天前
代码实例:Python 爬虫抓取与解析 JSON 数据
爬虫·python·json
一晌小贪欢1 天前
Python爬虫第4课:XPath与lxml高级解析技术
开发语言·爬虫·python·网络爬虫·python爬虫·python3·python办公
一晌小贪欢1 天前
Python爬虫第3课:BeautifulSoup解析HTML与数据提取
爬虫·python·网络爬虫·beautifulsoup·python爬虫·python3·requests
小白学大数据2 天前
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
爬虫·python·ajax
Jonathan Star2 天前
跨域处理的核心是解决浏览器的“同源策略”限制,主流方案
javascript·chrome·爬虫
Amazon数据采集2 天前
深度解析:如何构建企业级电商数据采集架构?Pangolin API实战指南
爬虫·api
亿牛云爬虫专家3 天前
优化分布式采集的数据同步:一致性、去重与冲突解决的那些坑与招
分布式·爬虫·数据采集·爬虫代理·代理ip·数据同步·房地产
深蓝电商API4 天前
静态网页 vs 动态网页:爬虫该如何选择抓取策略?
爬虫
B站_计算机毕业设计之家4 天前
数据分析:Python懂车帝汽车数据分析可视化系统 爬虫(Django+Vue+销量分析 源码+文档)✅
大数据·爬虫·python·数据分析·汽车·可视化·懂车帝
孤狼warrior4 天前
爬虫+卷积神经网络项目实战解析——对图像狗的识别分类
人工智能·爬虫·神经网络·cnn·卷积神经网络