人工智能爬虫导致维基共享资源带宽需求激增 50%

2025 年 4 月 1 日,维基媒体基金会在博文中表示,自 2024 年 1 月以来,维基共享资源下载多媒体的带宽消耗激增 50%,这一变化趋势主要由用于 AI 训练数据集的网络爬虫导致。以下是具体分析1:

  • 爬虫流量特征与数据存储模式的冲突:维基媒体基金会的数据存储模式是低使用频率内容仅存放在核心数据中心,而高频请求的数据则在更邻近的数据中心提供备份。人类读者倾向于关注特定主题,而爬虫机器人倾向于 "批量阅读" 大量页面并访问不太受欢迎的页面,这意味着它们有更多的流量发送到核心数据中心,带来了更高的流量成本。根据统计,机器人以 35% 的总体浏览量消耗了 65% 的核心数据中心流量资源。
  • 爬虫行为的无节制性:这些人工智能爬虫为了满足训练 AI 模型的数据需求,对数据的获取既贪婪又不加选择,会访问大量的页面资源,甚至还去访问了维基媒体基金会开发环境关键系统(如代码审查平台、错误跟踪器)的 URL,在一定时间内产生的请求量巨大,远远超过了正常人类用户的访问量,导致带宽需求急剧上升。

维基媒体基金会面临着较大的运营开支压力,其网站可靠性团队不得不花费大量时间和资源来阻止爬虫程序,以避免对普通用户造成干扰。

维基媒体基金会采取了以下针对爬虫行为的措施:

  • 技术限制手段
    • IP 限制:基金会可能会监控 IP 地址,对频繁发送请求的 IP 进行限制,阻止或限制来自这些 IP 的访问,从而减少爬虫的大规模访问。
    • User - Agent 检测:通过检测请求中的 User - Agent 字段来判断请求是否来自常见的爬虫程序。如果发现是爬虫的 User - Agent,就会对其进行拦截或限制,拒绝为其提供服务。
    • 验证码验证:在部分页面或操作中加入验证码,要求访问者进行人机验证,如拖动滑块、选中特定图片等,以防止自动化爬虫程序的访问。
    • 动态页面生成:使用 JavaScript 等技术在服务器端动态生成页面内容,使爬虫无法直接获取完整的页面数据,增加爬虫解析和获取信息的难度。
  • 规范与沟通措施
    • 明确使用规范:强调基金会的内容是免费提供的,但基础设施需要成本,呼吁建立负责任、可持续的基础设施使用规范,让开发者和数据复用者明确如何正确合法地获取和使用其内容。
    • 与科技公司合作:与相关科技公司合作来共同应对爬虫问题。例如,Cloudflare 推出了 AI Labyrinth,它使用人工智能生成的内容来减慢爬虫的速度,维基媒体基金会可能会借助类似的技术和工具来保护自身资源。
相关推荐
GIS小天4 分钟前
AI+预测3D新模型百十个定位预测+胆码预测+去和尾2025年6月21日第115弹
人工智能·算法·机器学习·彩票
蓝胖子不会敲代码31 分钟前
跟着AI学习C# Day29
人工智能·学习·c#
deephub1 小时前
机器学习异常检测实战:用Isolation Forest快速构建无标签异常检测系统
人工智能·python·机器学习·异常检测
电院工程师1 小时前
基于机器学习的侧信道分析(MLSCA)Python实现(带测试)
人工智能·python·嵌入式硬件·安全·机器学习·密码学
m0_751336391 小时前
机器学习重构光子学设计范式:从智能器件到前沿系统
人工智能·机器学习·重构·芯片·光学·材料科学·光子器件
AndrewHZ1 小时前
【Python与生活】如何实现一个条形码检测算法?
人工智能·pytorch·python·深度学习·算法·生活
白嫖不白嫖2 小时前
从番茄炒蛋到神经网络:解密AI模型的本质
人工智能·深度学习·神经网络
struggle20252 小时前
PINA开源程序用于高级建模的 Physics-Informed 神经网络
人工智能·深度学习·神经网络
19892 小时前
【Dify精讲】第14章:部署架构与DevOps实践
运维·人工智能·python·ai·架构·flask·devops
微信公众号:AI创造财富2 小时前
文生视频(Text-to-Video)
开发语言·人工智能·python·深度学习·aigc·virtualenv