import requests
from bs4 import BeautifulSoup
def get_actors():
actor_list = []
for i in range(0,10):
link = "http://movie.douban.com/top250?start="+str(i*25)
header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 SE 2.X MetaSr 1.0","Host":"movie.douban.com" }
response = requests.get(link,headers = header)
#print(response.status_code)
soup = BeautifulSoup(response.text,"html.parser")
div_list = soup.find_all('div',class_='bd')
for each in div_list:
actor = each.p.text.strip()
actor_list.append(actor)
return actor_list
actors = get_actors()
print(actors)
第一个爬虫:获取演员表
FrankHuang8882024-04-27 15:07
相关推荐
REDcker15 小时前
Puppeteer 与 Selenium 对比分析UR的出不克18 小时前
Python实现SMZDM数据处理系统:从爬虫到数据分析的完整实践UR的出不克18 小时前
基于 mitmproxy 的大众点评数据采集实战:自动化抓取景点与评论数据深蓝电商API19 小时前
Scrapy爬虫部署到Scrapyd服务端详解爱吃提升19 小时前
分布式爬虫的核心原理详细介绍深蓝电商API19 小时前
Scrapy Feed Exports 进阶:多种格式导出配置维他奶糖612 天前
Python 实战:Boss 直聘职位信息爬虫开发全解析xcLeigh2 天前
Python高效数据采集实战:基于IPIDEA代理的全方位教程深蓝电商API2 天前
Scrapy信号机制:监控爬虫全生命周期天天进步20152 天前
从脚本到服务:5 分钟通过 Botasaurus 将你的爬虫逻辑转化为 Web API