python 实现一个简单的网页爬虫程序

最近在学习python,以下为网页爬虫代码,供参考

1、爬取指定网页的标题和所有的连接

2、并将这些信息保存到一个文件中。

前置:因使用到网页相关的功能,故需导入requests、BeautifulSoup 库来完成

#导入网页相关的库

import requests

from bs4 import BeautifulSoup

#定义一个函数get_page()

def get_page(url):

response = requests.get(url) # 发送HTTP的get请求

解析响应内容为HTML(此处使用*.content,否则使用*.text有乱码)

soup = BeautifulSoup(response.content, 'html.parser')

获取链接的文本内容,即标题

*.title代表HTML文档中<title>标签,*.string属于则用于获取该标签内的直接文本内容

title = soup.title.string

links = soup.find_all('a') # 找到所有的<a>标签,即链接

打开文件用于保存

with open('results.txt', 'w', encoding='utf-8') as file:

file.write(f"网页标题:{title}") # 保存标题到文件

遍历所有连接

for link in links:

获取链接的href属性,即URL; # 保存链接到文件

file.write("\n\nURL:")

file.write(link.get('href'))

使用方法

get_page('https://mail.163.com')

3、远行后,可在"results.txt"文件查看到网页标题及URL

特别注意python的格式要求较高

相关推荐
IVEN_4 小时前
只会Python皮毛?深入理解这几点,轻松进阶全栈开发
python·全栈
Ray Liang6 小时前
用六边形架构与整洁架构对比是伪命题?
java·python·c#·架构设计
AI攻城狮6 小时前
如何给 AI Agent 做"断舍离":OpenClaw Session 自动清理实践
python
千寻girling6 小时前
一份不可多得的 《 Python 》语言教程
人工智能·后端·python
AI攻城狮9 小时前
用 Playwright 实现博客一键发布到稀土掘金
python·自动化运维
曲幽9 小时前
FastAPI分布式系统实战:拆解分布式系统中常见问题及解决方案
redis·python·fastapi·web·httpx·lock·asyncio
孟健1 天前
Karpathy 用 200 行纯 Python 从零实现 GPT:代码逐行解析
python
码路飞1 天前
写了个 AI 聊天页面,被 5 种流式格式折腾了一整天 😭
javascript·python
曲幽1 天前
FastAPI压力测试实战:Locust模拟真实用户并发及优化建议
python·fastapi·web·locust·asyncio·test·uvicorn·workers