爬取目标网站的域名和子域名【网站子域扫描工具01】

使用 Python 的 requests 库发送 HTTP 请求,并使用 Beautiful Soup或者正则表达式来解析响应,从中提取出域名和子域名信息。

1.简单示例(Beautiful Soup)

这是一个简单的示例代码,演示如何使用 requests 和 BeautifulSoup 来获取网页中的链接:

下面是带有注释的代码,解释了每一步具体在做什么:

python 复制代码
import requests  # 导入发送 HTTP 请求的库
from bs4 import BeautifulSoup  # 导入用于解析 HTML 的库

# 定义一个函数,用于获取目标网站的子域名
def get_subdomains(url):
    # 发送一个 GET 请求到目标网站,并获取响应内容
    response = requests.get(url)
    
    # 使用 BeautifulSoup 解析响应的 HTML 内容
    soup = BeautifulSoup(response.text, 'html.parser')
    
    subdomains = set()  # 创建一个集合,用于存储提取出的子域名
    
    # 遍历所有带有 href 属性的链接
    for link in soup.find_all('a'):
        href = link.get('href')  # 获取链接的地址
        if href and href.startswith('http'):  # 如果链接以 http 开头(避免处理相对链接)
            domain = href.split('/')[2]  # 提取链接中的域名部分作为子域名
            subdomains.add(domain)  # 将提取到的子域名加入集合中
    
    return subdomains  # 返回提取到的子域名集合

target_url = 'http://www.baidu.com'  # 设置目标网站的 URL
subdomains = get_subdomains(target_url)  # 调用函数获取子域名
print(subdomains)  # 打印提取到的子域名集合

在这个示例中,我们首先发送了一个 GET 请求到目标网站,然后用 BeautifulSoup 解析响应的 HTML 内容,提取出所有带有 href 属性的链接,并从中提取出域名部分作为子域名。最后将提取到的子域名放入集合中并返回。

2.简单示例(正则表达式)

以下是一个简单的示例代码:

python 复制代码
import requests
import re

def get_subdomains(url):
    response = requests.get(url)  # 发送GET请求获取网页内容
    html_content = response.text  # 获取网页HTML内容

    # 使用正则表达式从HTML内容中提取子域名
    subdomains = re.findall(r'(https?://\w+\.\w+\.\w+)', html_content)

    return subdomains

target_url = 'http://www.baidu.com'
subdomains = get_subdomains(target_url)
print(subdomains)

在这个示例中,我们使用了requests库发送了一个GET请求到目标网站,并获取了网页的HTML内容。接着,我们使用了正则表达式来从HTML内容中提取出子域名。

3.小结

这只是一个简单的示例,实际情况可能更加复杂,需要考虑不同网页结构、链接格式等问题。

相关推荐
cheniie1 小时前
python xmlrpc踩坑记录
python·踩坑·xmlrpc
咖啡の猫3 小时前
搭建Python开发环境
开发语言·python
听风吟丶5 小时前
Java 8 Stream API 高级实战:从数据处理到性能优化的深度解析
开发语言·python
文人sec6 小时前
pytest1-接口自动化测试场景
软件测试·python·单元测试·pytest
secondyoung8 小时前
Mermaid流程图高效转换为图片方案
c语言·人工智能·windows·vscode·python·docker·流程图
nini_boom8 小时前
**论文初稿撰写工具2025推荐,高效写作与智能辅助全解析*
大数据·python·信息可视化
1***s6329 小时前
Python爬虫反爬策略,User-Agent与代理IP
开发语言·爬虫·python
咖啡の猫10 小时前
Python的自述
开发语言·python
重启编程之路11 小时前
python 基础学习socket -TCP编程
网络·python·学习·tcp/ip