首先,我们需要安装 Node.js 和相关的库,如 request 和 cheerio。
bash
npm install request cheerio
然后,我们可以使用以下代码来爬取网页内容:
javascript
const request = require('request');
const cheerio = require('cheerio');
request({
url: 'jshk.com.cn',
headers: {
'proxy': 'http://' + proxyHost + ':' + proxyPort
}
}, (error, response, body) => {
if (!error && response.statusCode == 200) {
const $ = cheerio.load(body);
console.log($('h1').text());
}
});
每行代码的解释如下:
- 导入了 request 和 cheerio 库。
- 设置了代理信息。
- 发送了一个 GET 请求到指定的 URL。
- 如果请求成功并且状态码为 200,就加载返回的 HTML 内容。
- 使用 cheerio 库来解析 HTML,并打印出所有 h1 标签的文本内容。
这只是一个简单的示例,实际的爬虫程序可能需要处理更复杂的情况,比如处理重定向、处理登录认证、处理分页等等。