第一个爬虫:获取演员表

复制代码
import requests
from bs4 import BeautifulSoup

def get_actors():
    actor_list = []
    for i in range(0,10):
         link = "http://movie.douban.com/top250?start="+str(i*25)
         header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 SE 2.X MetaSr 1.0","Host":"movie.douban.com" }
         response  = requests.get(link,headers = header)
         #print(response.status_code)
         soup = BeautifulSoup(response.text,"html.parser")
         div_list = soup.find_all('div',class_='bd')
         for each in div_list:
             actor = each.p.text.strip()
             actor_list.append(actor)
    return actor_list

actors = get_actors()
print(actors)
相关推荐
tang7778917 小时前
深挖66免费代理网站:隐藏功能与真实体验报告
爬虫·python·网络爬虫·ip
电商API_1800790524720 小时前
电商评论数据爬虫:情感分析与数据可视化实战
大数据·人工智能·爬虫·信息可视化·数据分析
王解21 小时前
从自然语言到爬虫工作流:深入解析 ScrapeGraphAI 的原理与架构思维
爬虫·架构·scrapegraphai
有代理ip2 天前
常见数据采集问题及实操解决方案
爬虫·网络协议·http·golang·ssl
沄媪2 天前
Libvio.link爬虫技术技术
爬虫
深蓝电商API2 天前
模拟登录状态保持:Session与Token管理
爬虫·python
码云数智-园园2 天前
互联网网站反爬虫机制探析:原理、策略与应对思路
爬虫
深蓝电商API2 天前
爬虫伦理与合法性:如何避免法律风险
爬虫
深蓝电商API3 天前
爬虫日志分析:快速定位被封原因
爬虫·python
是Dream呀3 天前
自动化打造信息影响力:用 Web Unlocker 和 n8n 打造你的自动化资讯系统
运维·前端·爬虫·自动化