基于Go 1.19的站点模板爬虫

创建一个基于Go 1.19的站点模板爬虫涉及到几个关键步骤:初始化项目,安装必要的包,编写爬虫逻辑,以及处理和存储抓取的数据。下面是一个简单的示例,使用goquery库来解析HTML,并使用net/http来发起HTTP请求。请注意,实际部署爬虫时,需要遵守目标网站的robots.txt规则和版权政策。

首先,确保你的Go环境已经更新到了1.19版本。可以通过运行go version来检查。

接下来,创建一个新的Go模块:

bash 复制代码
mkdir site_crawler
cd site_crawler
go mod init site_crawler

安装goquery库:

bash 复制代码
go get github.com/PuerkitoBio/goquery

现在,我们可以开始编写爬虫代码了。以下是一个基本的爬虫示例,用于抓取网页上的标题:

go 复制代码
package main

import (
	"fmt"
	"log"
	"net/http"

	"github.com/PuerkitoBio/goquery"
)

func fetchURL(url string) (*goquery.Document, error) {
	resp, err := http.Get(url)
	if err != nil {
		return nil, err
	}
	defer resp.Body.Close()

	if resp.StatusCode != 200 {
		return nil, fmt.Errorf("status code error: %d %s", resp.StatusCode, resp.Status)
	}

	doc, err := goquery.NewDocumentFromReader(resp.Body)
	if err != nil {
		return nil, err
	}

	return doc, nil
}

func scrapeTitles(doc *goquery.Document) {
	doc.Find("h1").Each(func(i int, s *goquery.Selection) {
		title := s.Text()
		fmt.Println(title)
	})
}

func main() {
	url := "http://example.com" // 替换为你想要爬取的网站URL

	doc, err := fetchURL(url)
	if err != nil {
		log.Fatal(err)
	}

	scrapeTitles(doc)
}

在这个示例中,我们定义了两个主要功能:

  1. fetchURL:该函数从给定的URL获取页面内容,并使用goquery将其解析为文档对象。
  2. scrapeTitles:此函数遍历文档中所有的<h1>标签,并打印出它们的文本内容。

你可以根据需要修改scrapeTitles函数,以提取不同的HTML元素或属性。例如,如果你想抓取所有链接,可以使用a标签;如果想抓取图片,可以使用img标签,并提取src属性。

最后,记得在实际使用爬虫时,尊重目标网站的爬虫政策,不要对服务器造成过大的负担,同时处理好抓取数据的存储和使用,确保符合法律法规和道德规范。

相关推荐
火龙谷10 小时前
【爬虫】12306查票
爬虫
ζ小菜鸡11 小时前
我用Deepseek + 亮数据爬虫神器 1小时做出輿情分析器
爬虫·bright data
q5673152312 小时前
Go语言多线程爬虫与代理IP反爬
开发语言·爬虫·tcp/ip·golang
Go Dgg20 小时前
Go语言实现豆瓣电影Top250爬虫
开发语言·爬虫·golang
攻城狮7号21 小时前
Python爬虫第20节-使用 Selenium 爬取小米商城空调商品
开发语言·数据库·爬虫·python·selenium
奋斗者1号1 天前
浏览器自动化与网络爬虫实战:工具对比与选型指南
运维·爬虫·自动化
q567315232 天前
Node.js数据抓取技术实战示例
爬虫·python·scrapy·node.js
.生产的驴2 天前
SpringBoot 集成滑块验证码AJ-Captcha行为验证码 Redis分布式 接口限流 防爬虫
java·spring boot·redis·分布式·后端·爬虫·tomcat
来自星星的坤2 天前
Python 爬虫基础入门教程(超详细)
开发语言·爬虫·python
浩皓素2 天前
Python网络爬虫:从入门到实践
爬虫·python