import requests
from bs4 import BeautifulSoup
def get_actors():
actor_list = []
for i in range(0,10):
link = "http://movie.douban.com/top250?start="+str(i*25)
header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 SE 2.X MetaSr 1.0","Host":"movie.douban.com" }
response = requests.get(link,headers = header)
#print(response.status_code)
soup = BeautifulSoup(response.text,"html.parser")
div_list = soup.find_all('div',class_='bd')
for each in div_list:
actor = each.p.text.strip()
actor_list.append(actor)
return actor_list
actors = get_actors()
print(actors)
第一个爬虫:获取演员表
FrankHuang8882024-04-27 15:07
相关推荐
小白学大数据5 小时前
Scrapy 框架实战:构建高效的快看漫画分布式爬虫奇舞精选17 小时前
爬虫入门爬虫程序猿17 小时前
利用 Python 爬虫获取 1688 商品详情 API 返回值说明(代码示例)实战指南不叫十三17 小时前
(我与爬虫的较量)码上爬第三题爬虫程序猿2 天前
利用 Java 爬虫按关键字搜索 1688 商品详情 API 返回值说明实战指南mjy_1112 天前
项目设计文档——爬虫项目(爬取天气预报)爱隐身的官人2 天前
爬虫基础学习-爬取网页项目(二)Java开发-楠木3 天前
【猿人学】web第一届 第13题 入门级 cookieAmazon数据采集3 天前
[5 万字]手把手教你写一个能打的Amazon评论爬虫,搞定反爬和登录限制!(2025版)爱隐身的官人3 天前
爬虫基础学习-链接协议分析,熟悉相关函数