谷歌学术内容爬取

最近面临导师灵魂拷问:

"你怎么知道你提出的这个方法前人都没有提出过呢?"

"你相比于之前的方法,创新点究竟在哪里?"

好吧,为了彻底杜绝这样的问题,开始学习使用谷歌学术。先来学习下关键词检索



哈哈哈哈区区50000篇文章。。。。。。

我特么翻到何年何月呀!🙄

于是滋生了Python写爬虫的想法。


基本原理如下:

使用scholarly库。下面是一份简单、分步骤的指南:

  1. 安装scholarly:

    bash 复制代码
    pip install scholarly
  2. 编写Python脚本:

    python 复制代码
    from scholarly import scholarly
    
    # 搜索关键词
    搜索查询 = scholarly.search_pubs('你感兴趣的关键词')
    
    # 检索前5个结果
    for i in range(5):
        出版物 = next(搜索查询)
        标题 = 出版物['bib']['title']
        作者 = ', '.join(出版物['bib']['author'])
        摘要 = 出版物['bib'].get('abstract', '没有摘要可用')
    
        print(f"标题: {标题}")
        print(f"作者: {作者}")
        print(f"摘要: {摘要}\n")
  3. 运行脚本:

    bash 复制代码
    python 你的脚本.py

'你感兴趣的关键词'替换为你实际感兴趣的关键词。脚本将打印前5个相关文献项目的标题、作者和摘要。


之后对代码进行了一些改进,包括

  1. 运行前,评估文献总数
  2. 增加合适的睡眠时长(防止请求太频繁被ban掉)
  3. 一边请求,一遍将数据写入本地文件中。防止被ban掉之后,数据全没了

目前一切正常


导入excel并进行分列,似乎效果还行


点赞👍+关注⭐+私信,免费获取代码

支持 👉 快速下载地址

相关推荐
星空椰7 分钟前
从零到实战:一套完整的 Python 爬虫技术体系(requests + BeautifulSoup + 正则 + JSON)
爬虫·python·json·beautifulsoup
zhangfeng113318 小时前
合法爬虫四底线 法律边界
爬虫
S1998_1997111609•X20 小时前
论恶意注入污染蜜罐进程函数值取仺⺋以集团犯罪获取数据爬虫的轮系依据
网络·数据库·爬虫·网络协议·百度
大邳草民21 小时前
Python 爬虫:从 HTTP 请求到接口分析
笔记·爬虫·python
S1998_1997111609•X21 小时前
恶意注入污染蜜罐HDMI进程函数值进行封禁垃圾蠕虫仓蟲的轮系依据行为戆直㞢仓shell token
数据库·爬虫·网络协议·百度·开闭原则
huzhongqiang2 天前
Python全站链接爬取工具优化:支持过滤和断点续爬
后端·爬虫
李松桃2 天前
Python爬虫-实战
爬虫·python
跨境数据猎手2 天前
B 站 item_search_video 接口开发,搭建生产级视频搜索服务
大数据·爬虫·python
小白学大数据2 天前
Python 自动化爬取网易云音乐歌手歌词实战教程
爬虫·python·okhttp·自动化
深蓝电商API2 天前
京东API批量操作优化:单次1000条限制的突破方案
爬虫·接口·api·京东api