import requests
from bs4 import BeautifulSoup
def get_actors():
actor_list = []
for i in range(0,10):
link = "http://movie.douban.com/top250?start="+str(i*25)
header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 SE 2.X MetaSr 1.0","Host":"movie.douban.com" }
response = requests.get(link,headers = header)
#print(response.status_code)
soup = BeautifulSoup(response.text,"html.parser")
div_list = soup.find_all('div',class_='bd')
for each in div_list:
actor = each.p.text.strip()
actor_list.append(actor)
return actor_list
actors = get_actors()
print(actors)
第一个爬虫:获取演员表
FrankHuang8882024-04-27 15:07
相关推荐
tang7778917 小时前
深挖66免费代理网站:隐藏功能与真实体验报告电商API_1800790524720 小时前
电商评论数据爬虫:情感分析与数据可视化实战王解21 小时前
从自然语言到爬虫工作流:深入解析 ScrapeGraphAI 的原理与架构思维有代理ip2 天前
常见数据采集问题及实操解决方案沄媪2 天前
Libvio.link爬虫技术技术深蓝电商API2 天前
模拟登录状态保持:Session与Token管理码云数智-园园2 天前
互联网网站反爬虫机制探析:原理、策略与应对思路深蓝电商API2 天前
爬虫伦理与合法性:如何避免法律风险深蓝电商API3 天前
爬虫日志分析:快速定位被封原因是Dream呀3 天前
自动化打造信息影响力:用 Web Unlocker 和 n8n 打造你的自动化资讯系统