爬某网站延禧宫率第一集视频

python 复制代码
import requests
import re
from tqdm import tqdm
# 网址链接:https://v.ijujitv.cc/play/24291-1-1.html
url = 'https://v6.1080pzy.co/20220801/urxniJCN/hls/index.m3u8'
headers = {
    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36",
    "Referer":"https://jx.ijujitv.cc/"
}

m3u8_data = requests.get(url=url,headers=headers).text
m3u8_data = re.sub("#EXTM3U",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-VERSION:\d",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-TARGETDURATION:\d",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-PLAYLIST-TYPE:VOD",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-MEDIA-SEQUENCE:\d",'',m3u8_data)
m3u8_data = re.sub("#EXTINF:\d\.\d+,",'',m3u8_data)
m3u8_data = re.sub("#EXTINF:\d,",'',m3u8_data)
m3u8_data = re.sub("#EXT-X-ENDLIST",'',m3u8_data).split()
for m3u8_url in tqdm(m3u8_data):
    content = requests.get(url=m3u8_url,headers=headers).content
    with open('延禧宫率'+'.mp4',mode='ab') as f:
        f.write(content)

爬取的页面如下:

爬取步骤:

又点击检查-network-xhr,发现有许多ts文件,复制浏览即会下载。-在搜索框搜索m3u8,找到一个html的包,如下。

点开后发现其为:

得到了所有ts的包,进行访问提取所有的ts路径代码。

相关推荐
B站计算机毕业设计之家4 小时前
Python招聘数据分析可视化系统 Boss直聘数据 selenium爬虫 Flask框架 数据清洗(附源码)✅
爬虫·python·selenium·机器学习·数据分析·flask
傻啦嘿哟4 小时前
用Redis实现爬虫URL去重与队列管理:从原理到实战的极简指南
数据库·redis·爬虫
雪碧聊技术4 小时前
爬虫是什么?
大数据·爬虫·python·数据分析
小白学大数据9 小时前
集成Scrapy与异步库:Scrapy+Playwright自动化爬取动态内容
运维·爬虫·scrapy·自动化
深蓝电商API11 小时前
异步爬虫的终极形态:aiohttp + asyncio 实现万级并发实践
爬虫·python·aiohttp
电商API_1800790524712 小时前
从客户需求到 API 落地:淘宝商品详情批量爬取与接口封装实践
大数据·人工智能·爬虫·数据挖掘
深蓝电商API12 小时前
爬虫性能压榨艺术:深入剖析 Scrapy 内核与中间件优化
爬虫·scrapy
傻啦嘿哟13 小时前
爬虫数据去重:BloomFilter算法实现指南
爬虫·算法
Jonathan Star1 天前
网站识别爬虫(包括以浏览器插件形式运行的爬虫)主要通过分析请求特征、行为模式等差异来区分人类用户和自动化程序
运维·爬虫·自动化
深蓝电商API2 天前
从爬虫到平台:如何把你的爬虫项目做成一个技术产品?
爬虫·信息可视化·数据挖掘