java爬虫案例

以下是一个简单的Java爬虫案例,使用了 Jsoup 和 Apache HttpClient 两个常用的库来实现网页内容的爬取和解析。这个案例会演示如何获取网页的HTML内容、解析HTML并提取所需数据。

示例:使用Jsoup爬取网页内容

  1. 添加依赖

在项目中添加以下依赖(以Maven为例):

<!-- Jsoup 用于HTML解析 -->

<dependency>

<groupId>org.jsoup</groupId>

<artifactId>jsoup</artifactId>

<version>1.15.4</version>

</dependency>

  1. 爬虫代码

import org.jsoup.Jsoup;

import org.jsoup.nodes.Document;

import org.jsoup.nodes.Element;

import org.jsoup.select.Elements;

import java.io.IOException;

public class SimpleWebCrawler {

public static void main(String[] args) {

String url = "https://www.baidu.com"; // 目标网页

try {

// 使用Jsoup连接网页

Document document = Jsoup.connect(url)

.userAgent("Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36")

.timeout(10000)

.get();

// 打印网页标题

System.out.println("网页标题: " + document.title());

// 解析HTML,提取所有链接

Elements links = document.select("a[href]");

System.out.println("网页中的链接:");

for (Element link : links) {

System.out.println("链接文本: " + link.text() + ", 链接地址: " + link.attr("href"));

}

} catch (IOException e) {

e.printStackTrace();

}

}

}

  1. 代码说明

• Jsoup.connect(url):连接目标网页。

• userAgent:模拟浏览器的用户代理,避免被服务器识别为爬虫。

• timeout:设置连接超时时间。

• document.title():获取网页的标题。

• document.select("a[href]"):使用CSS选择器提取所有带有href属性的<a>标签。

示例:使用Apache HttpClient获取网页内容

  1. 添加依赖

在项目中添加以下依赖(以Maven为例):

<!-- Apache HttpClient 用于发送HTTP请求 -->

<dependency>

<groupId>org.apache.httpcomponents</groupId>

<artifactId>httpclient</artifactId>

<version>4.5.13</version>

</dependency>

  1. 爬虫代码

import org.apache.http.client.methods.CloseableHttpResponse;

import org.apache.http.client.methods.HttpGet;

import org.apache.http.impl.client.CloseableHttpClient;

import org.apache.http.impl.client.HttpClients;

import org.apache.http.util.EntityUtils;

public class HttpClientCrawler {

public static void main(String[] args) {

String url = "https://www.baidu.com"; // 目标网页

try (CloseableHttpClient httpClient = HttpClients.createDefault()) {

// 创建HTTP GET请求

HttpGet httpGet = new HttpGet(url);

httpGet.setHeader("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36");

// 执行请求

CloseableHttpResponse response = httpClient.execute(httpGet);

// 检查响应状态

if (response.getStatusLine().getStatusCode() == 200) {

// 获取响应内容

String content = EntityUtils.toString(response.getEntity(), "UTF-8");

System.out.println("网页内容: " + content.substring(0, 100) + "..."); // 打印前100个字符

}

response.close();

} catch (Exception e) {

e.printStackTrace();

}

}

}

  1. 代码说明

• HttpClients.createDefault():创建一个默认的HTTP客户端。

• HttpGet:发送GET请求。

• setHeader:设置请求头,模拟浏览器的用户代理。

• execute:执行请求并获取响应。

• EntityUtils.toString:将响应内容转换为字符串。

注意事项

  1. 遵守法律法规:爬取网页内容时,确保遵守目标网站的robots.txt规则,不要爬取禁止访问的内容。

  2. 礼貌爬虫:设置合理的请求间隔,避免对目标服务器造成过大压力。

  3. 处理异常:确保代码能够处理网络异常、超时等问题。

  4. 反爬机制:一些网站可能会检测爬虫行为,可以通过设置代理、动态IP等方式规避。

扩展功能

• 爬取图片:解析HTML中的<img>标签,下载图片。

• 动态网页爬取:使用Selenium或Jsoup结合WebDriver来处理JavaScript渲染的网页。

• 分布式爬虫:使用爬虫框架(如WebMagic、Scrapy)来实现分布式爬取。

如果你有具体的需求,可以告诉我,我可以为你提供更详细的代码示例!

相关推荐
abcnull5 小时前
用javaparser做精准测试
java·ast·静态代码分析·精准测试·javaparser
叶小鸡5 小时前
Java 篇-项目实战-苍穹外卖-笔记汇总
java·开发语言·笔记
梅羽落5 小时前
win11打开关闭麦克风
经验分享
AI人工智能+电脑小能手5 小时前
【大白话说Java面试题】【Java基础篇】第22题:HashMap 和 HashSet 有哪些区别
java·开发语言·哈希算法·散列表·hash
juniperhan5 小时前
Flink 系列第21篇:Flink SQL 函数与 UDF 全解读:类型推导、开发要点与 Module 扩展
java·大数据·数据仓库·分布式·sql·flink
ID_180079054735 小时前
Python 实现亚马逊商品详情 API 数据准确性校验(极简可用 + JSON 参考)
java·python·json
c++之路6 小时前
C++23概述
java·c++·c++23
专注API从业者7 小时前
Open Claw 京东商品监控选品实战:一键抓取、实时监控、高效选品
java·服务器·数据库
摇滚侠7 小时前
DBeaver 导入数据库 导入 SQL 文件 MySQL 备份恢复
java·数据库·mysql
古城小栈7 小时前
从 cargo-whero 库中,找到提升 rust 的契机
开发语言·后端·rust