Python 爬虫网页图片下载到本地

您可以使用Python的requests库来获取网页的源码,使用BeautifulSoup库来解析HTML,并使用urllib库来下载图片到本地。下面是一个示例代码:

复制代码
import requests from bs4 import BeautifulSoup import urllib 
# 获取网页源码 
url = 'https://example.com' 
# 替换成您要获取源码的网页
URL response = requests.get(url) 
html = response.text 
# 解析图片地址
 soup = BeautifulSoup(html, 'html.parser') 
image_tags = soup.find_all('img')
 image_urls = [tag['src'] for tag in image_tags]
 # 下载图片到本地 
for i, image_url in enumerate(image_urls): try: urllib.request.urlretrieve(image_url, f'image_{i+1}.jpg')
 # 图片将保存为'image_1.jpg', 'image_2.jpg'等
 print(f'成功下载图片{i+1}')
 except Exception as e: print(f'下载图片{i+1}时出错:{e}') 

请注意,上述代码中的URL和文件名是示例,您需要根据实际情况进行替换。另外,这段代码只能下载图片类型为JPEG的文件,如果想要下载其他格式的图片,需要进行相应的修改。

相关推荐
ponponon4 分钟前
时代的眼泪,nameko 和 eventlet 停止维护后的项目自救,升级和替代之路
python
Flittly4 分钟前
【从零手写 ClaudeCode:learn-claude-code 项目实战笔记】(5)Skills (技能加载)
python·agent
敏编程17 分钟前
一天一个Python库:pyarrow - 大规模数据处理的利器
python
Flittly2 小时前
【从零手写 ClaudeCode:learn-claude-code 项目实战笔记】(4)Subagents (子智能体)
python·agent
明月_清风9 小时前
Python 装饰器前传:如果不懂“闭包”,你只是在复刻代码
后端·python
明月_清风9 小时前
打破“死亡环联”:深挖 Python 分代回收与垃圾回收(GC)机制
后端·python
ZhengEnCi1 天前
08c. 检索算法与策略-混合检索
后端·python·算法
明月_清风1 天前
Python 内存手术刀:sys.getrefcount 与引用计数的生死时速
后端·python
明月_清风1 天前
Python 消失的内存:为什么 list=[] 是新手最容易踩的“毒苹果”?
后端·python
Flittly2 天前
【从零手写 ClaudeCode:learn-claude-code 项目实战笔记】(3)TodoWrite (待办写入)
python·agent