该程序是一个简单的Java程序,用于从指定的URL中获取网页内容并保存到本地文件。通过URL类打开指定的URL链接,并使用openStream()方法获取输入流。然后使用Scanner类读取输入流中的内容,并使用PrintWriter类将读取到的内容写入到本地文件中。
在该程序中,程序打开了腾讯新闻(https://news.qq.com/),并将网页内容保存为qq.html文件。
java
import java.io.BufferedInputStream;
import java.io.FileWriter;
import java.io.InputStream;
import java.io.PrintWriter;
import java.net.URL;
import java.util.Scanner;
public class SimpleUrlCrawler {
public static void main(String[] args) {
try {
// 创建URL对象,指定要抓取的网页地址
URL url = new URL("https://news.qq.com/");
// 打开URL连接获取输入流
InputStream input = url.openStream();
// 使用缓冲输入流包装输入流,提高读取效率
Scanner cin = new Scanner(new BufferedInputStream(input));
// 创建PrintWriter对象,用于写入文件
PrintWriter cout = new PrintWriter(new FileWriter("qq.html"));
// 逐行读取输入流中的内容,并写入文件
while (cin.hasNextLine()) {
cout.println(cin.nextLine());
}
// 关闭输入流、输出流
input.close();
cin.close();
cout.close();
} catch (Exception e) {
// 处理异常
e.printStackTrace();
}
}
}