西南交大 互联网搜索引擎 项目一 搜索引擎文本预处理

项目地址:https://github.com/Ni-Sun/Spider

项目要求:

通过下载引擎(Web Crawler/Spider)自动下载至少500个英文文档/网页,以及500个中文文档/网页,越多越好,并保留原始的文档/网页备份(如:News_1_Org.txt)

编程对所下载文档进行自动预处理:

将各个单词进行字符化,完成删除特殊字符、大小写转换等操作

调研并选择合适的中文分词技术和工具实现中文分词

删除英文停用词(Stop Word)

删除中文停用词

调用或者编程实现英文Porter Stemming功能

将中文文档进行字符化,即可被搜索引擎索引的字符单元

对于英文文档,经过以上处理之后,将经过处理之后所形成简化文档保存(如:News_1_E.txt),以备以后的索引处理

对于中文文档,经过以上处理之后,将经过处理之后所形成简化文档保存(如:News_1_C.txt),以备以后的索引处理

功能

  • 网页爬取:支持爬取网页的 HTML 内容,并对其进行解析和处理。
  • 多线程支持:通过多线程技术提升爬取效率。
  • 语言支持:兼容中英文网站的爬取和处理。
  • 动态限速:根据爬取情况动态调整爬取速度,降低被封禁的风险。
  • 智能队列管理:实现队列的智能补充和管理机制。
  • 反爬策略:支持代理配置,绕过常见的反爬机制。
  • 内容备份 :自动保存原始网页内容(如:xxx_org.txt)。
  • 文本预处理
    • 删除特殊字符并统一大小写。
    • 中文分词处理。
    • 删除中英文停用词。
    • 英文文本支持 Porter Stemming 词干提取。
  • 简化文档生成
    • 英文文档处理后保存为简化文件(如:xxx_e.txt)。
    • 中文文档处理后保存为简化文件(如:xxx_c.txt)。
  • 错误处理:记录爬取失败的 URL,并优雅地处理无法访问的网页。

配置&运行

运行前需要安装:

text 复制代码
beautifulsoup4 - 用于解析HTML内容
jieba - 用于中文分词
nltk - 用于自然语言处理
fake_useragent - 用于生成随机的User-Agent
requests - 用于发送HTTP请求
requests-html - 用于执行JavaScript渲染

可以执行以下命令来安装这些库

pip install beautifulsoup4 jieba nltk fake_useragent requests requests-html

配置要爬取哪些网站在 configs.py 中修改

部分网页较好爬取,爬取失败率较低, 爬取速度较快; 部分网页不好爬取,爬取失败率较高, 爬取速度较慢(因此可能会存在 有acb_org.txt文件, 但是没有abc_c.txt文件 的情况)

有的网站无法爬取, 如非必要, 可以换个网站爬取

注意, 部分英文网站可能需要挂代理才能爬

运行main.py会生成crawler文件夹, 其下有多个xxx-crawler文件夹, 对应不同的网站

若爬取中文网站, 会生成xxx_org.txt 和 xxx_c.txt文件

若爬取英文网站, 会生成xxx_org.txt 和 xxx_e.txt文件

目录结构

相关推荐
XU磊26011 分钟前
使用 PyTorch 构建 UNet 图像去噪模型:从数据加载到模型训练的完整流程
人工智能·pytorch·python
renne11 分钟前
Open WebUI+MCP搭建个人AI智能体
python·openai
JavaEdge在掘金13 分钟前
LangChain4j + MCP:让你的 AI 轻松调用外部工具(内附GitHub-MCP实战)
python
SsummerC14 分钟前
【leetcode100】一和零
开发语言·python·leetcode·动态规划
Kusunoki_D29 分钟前
在 Anaconda 上安装多版本 Python 解释器并在 PyCharm 中配置
ide·python·pycharm
傻啦嘿哟1 小时前
Python与图像处理:从基础操作到智能应用的全面解析
开发语言·图像处理·python
机器学习Zero2 小时前
自然语言处理(9)—— 共现词矩阵及Python实现
人工智能·python·自然语言处理·nlp
2501_915374352 小时前
Django 使用教程
python·django·sqlite
爱吃泡芙的小白白2 小时前
爬虫学习——Scrapy
爬虫·python·scrapy·学习记录
Luck_ff08103 小时前
【Python爬虫详解】第二篇:HTML结构的基本分析
爬虫·python·html