前端 AJAX 详解 + 动态页面爬虫实战思路

目前 80% 的网站都使用了AJAX技术,那么传统的爬虫通过 html 来获取数据就不行了,总结一下 AJAX 相关知识。

1、前端三大核心

前端开发的三大核心基础是 HTMLCSSJavaScript

  • HTML 负责搭建网页的结构与内容(结构)
  • CSS 负责网页的样式、布局和视觉效果(表现)
  • JavaScript 负责网页的交互、逻辑和数据处理(行为)

HTML(结构层)

本质上是 标记语言(Markup Language),通过标签描述页面元素。

常见标签:

html 复制代码
<h1>标题</h1>
<p>段落</p>
<a href="https://example.com">链接</a>
<img src="image.jpg">
<div></div>

页面结构示例:

html 复制代码
<!DOCTYPE html>
<html>
<head>
  <title>网页标题</title>
</head>
<body>
  <h1>Hello World</h1>
  <p>这是一个网页</p>
</body>
</html>

CSS(表现层)

主要负责:

  • 颜色
  • 字体
  • 布局
  • 动画
  • 响应式设计

示例

css 复制代码
h1 {
  color: red;
  font-size: 30px;
}

HTML + CSS

html 复制代码
<h1 class="title">Hello</h1>
css 复制代码
.title{
  color: blue;
}

JavaScript(行为层)

负责:

  • 动态效果
  • 用户交互
  • 请求服务器数据
  • 操作DOM

示例:

点击按钮改变文字

html 复制代码
<button onclick="changeText()">点击</button>
<p id="text">Hello</p>
js 复制代码
function changeText(){
  document.getElementById("text").innerText="Hello JS";
}

最后再举一个三者的例子

一个按钮:

bash 复制代码
HTML   定义按钮
CSS    让按钮变漂亮
JS     点击按钮触发逻辑

代码:

bash 复制代码
<button id="btn">点击</button>

<style>
button{
  background:red;
  color:white;
}
</style>

<script>
document.getElementById("btn").onclick=function(){
  alert("点击成功");
}
</script>

2、AJAX

AJAX 是什么

全称:Asynchronous JavaScript and XML (异步 JavaScript 和 XML)。它不是一种新的编程语言,而是一种 Web 开发技术组合,用于让网页在不重新加载整个页面的情况下与服务器交换数据并更新部分页面内容

⚠️ 补充:虽然名字里带 XML,但现在实际开发中几乎都用 JSON(更轻量、易读)代替 XML,AJAX 只是沿用了历史名称。

核心特点

  • 异步(Asynchronous):发送请求后,浏览器不用等着服务器响应,可以继续做其他事(比如用户还能点击按钮、输入内容),响应回来后再处理;
  • 局部更新:只更新网页需要变化的部分,不是整个页面重新加载,体验更流畅;
  • 无刷新:用户看不到浏览器的刷新动作,交互感更自然。

举例

  • 在电商页面下滑,自动加载更多商品
  • 微博 / 抖音无限滚动加载新内容
  • 输入关键词,实时出搜索建议

这些全是 AJAX。

和传统请求对比

传统网页请求流程:

  1. 用户点击按钮 / 提交表单
  2. 浏览器向服务器发送请求
  3. 服务器返回完整 HTML
  4. 整个页面刷新

AJAX 的流程:

  1. 用户触发操作
  2. JavaScript 在后台发送 HTTP 请求
  3. 服务器返回数据(JSON / XML / HTML)
  4. JavaScript 只更新页面的一部分

简单代码示例(两种常用方式)

方式 1:原生 XMLHttpRequest(AJAX 基础实现)
js 复制代码
// 1. 创建 XMLHttpRequest 对象(核心)
const xhr = new XMLHttpRequest();

// 2. 配置请求:请求方式、请求地址、是否异步(默认true)
xhr.open('GET', 'https://jsonplaceholder.typicode.com/todos/1', true);

// 3. 监听请求状态变化(核心)
xhr.onreadystatechange = function() {
  // readyState=4 表示请求完成,status=200 表示响应成功
  if (xhr.readyState === 4 && xhr.status === 200) {
    // 4. 处理服务器返回的数据(JSON格式)
    const data = JSON.parse(xhr.responseText);
    console.log('请求成功,返回数据:', data);
    // 5. 局部更新页面(比如把数据显示到页面)
    document.getElementById('result').innerHTML = `
      <p>任务标题:${data.title}</p>
      <p>是否完成:${data.completed ? '是' : '否'}</p>
    `;
  }
};

// 4. 发送请求
xhr.send();

// 页面中需要有一个容器来显示结果
// <div id="result"></div>
方式 2:现代方案 fetch API(更简洁,推荐)

原生 fetch 是 ES6+ 新增的 AJAX 方案,语法更简洁,支持 Promise:

js 复制代码
// 发起 GET 请求
fetch('https://jsonplaceholder.typicode.com/todos/1')
  // 第一步:处理响应,转为 JSON 格式
  .then(response => {
    if (!response.ok) {
      throw new Error('请求失败:' + response.status);
    }
    return response.json();
  })
  // 第二步:使用数据,局部更新页面
  .then(data => {
    console.log('fetch请求成功:', data);
    document.getElementById('result').innerHTML = `
      <p>任务ID:${data.id}</p>
      <p>任务标题:${data.title}</p>
    `;
  })
  // 捕获请求异常
  .catch(error => {
    console.error('请求出错:', error);
    document.getElementById('result').innerHTML = '<p>请求失败,请重试</p>';
  });

AJAX 的实际应用场景

  • 实时表单验证:比如注册时输入用户名,立刻检查是否已被占用(不用提交整个表单);
  • 滚动加载:比如刷朋友圈、抖音,下滑自动加载更多内容;
  • 搜索建议:输入关键词时,实时弹出相关搜索提示(如百度搜索);
  • 实时数据展示:比如股票行情、天气信息、聊天消息的实时更新。

AJAX 对爬虫的影响

AJAX 对爬虫的影响,本质是改变了"数据出现的位置和时机"。

传统爬虫思路:请求 URL → 拿到 HTML → 用 XPath / 正则提取数据。

AJAX 页面:你直接请求 URL,拿到的 HTML 是空壳、没有数据,数据全是 JS 后来异步加载的。

如何判断是否使用了AJAX

1、浏览器开发者工具(F12)
  1. 按 F12(或右键 → 检查)
  2. 切换到 Network(网络) 标签
  3. 在 Filter(过滤器)里输入 XHR 或 Fetch(或者直接勾选 XHR/Fetch 复选框)
  4. 刷新页面(Ctrl + R)

判断标准

  • 如果看到一大堆 JSON 请求(Type 列显示 xhr 或 fetch),而且请求路径带 /api/、/v2/、/feed 等等 → 就是 AJAX!
  • 这些请求返回的数据正是页面显示的内容(预览里能直接看到列表/详情)
  • 同时 Ctrl+U 查看原始 HTML 几乎是空的(只有 <div id="app"></div>)→ 确认是 JS 通过 AJAX 加载数据

小技巧

  • 时间线上看:页面 HTML 先加载(Document),然后才出现一堆 XHR → 典型 AJAX 特征

Document 就是你最开始请求的那个网页 HTML

浏览器先把整个页面的骨架(html、head、body、空的 div)一次性下载完,这一步叫 Document 加载完成。

  • 如果 Filter 里什么都没有,只有静态 CSS/JS → 不是 AJAX(可能是 SSR 直出)
2、对比"原始源码" vs "真实页面"
  1. 右键页面 → 查看网页源代码(Ctrl+U)
  2. 搜索你肉眼看到的数据(如商品标题、文章内容)
    • 搜不到 → 数据不在 HTML 里 → 一定是 AJAX(或 WebSocket)
  1. 如果 Network 里又有 XHR JSON → 100% 是 AJAX

AJAX 页面爬虫的解决方案

方法1:直接调用 API(最优方案)

步骤:

  1. 打开浏览器

  2. F12 → Network

  3. 找 Fetch/XHR 请求

  4. 复制接口

判断 API 是否可以直接爬

检查 Request Headers

重点看:

bash 复制代码
cookie
token
sign
authorization

分三种情况。

情况1:无鉴权(最简单)

请求类似:

bash 复制代码
GET https://api.xxx.com/gold

直接:

python 复制代码
import requests

url = "https://api.xxx.com/gold"
res = requests.get(url).json()

print(res)

完成。

情况2:需要 headers

例如:

bash 复制代码
User-Agent
Referer
Cookie

复制浏览器请求头:

python 复制代码
headers = {
 "User-Agent": "...",
 "Referer": "...",
 "Cookie": "..."
}


requests.get(url, headers=headers)
情况3:接口有加密

当接口存在:

  • sign
  • token
  • 加密参数

例如:

bash 复制代码
sign=md5(timestamp+secret)

需要:

逆向 JS 算法。

方法2:模拟浏览器

使用:

  • Selenium
  • Playwright

让爬虫 执行 JavaScript。

3、WebSocket

除了 AJAX,还有一种传统爬虫无法直接抓取数据的情况,就是使用了 WebSocket 协议传输数据。

WebSocket 是一种基于 TCP 的全双工双向通信协议,和我们熟悉的 HTTP 有本质区别:

  • HTTP:客户端主动发请求 → 服务端响应 → 连接关闭(请求 - 响应模式,单向 / 被动);
  • WebSocket(WS):客户端与服务端完成一次握手后,建立持久连接,双方可以随时互相发送数据(实时、双向)。

WebSocket 连接建立时,必须先通过 HTTP 协议进行握手(HTTP Upgrade)。客户端发送一个 HTTP 请求,请求升级协议。

示例:

bash 复制代码
GET /chat HTTP/1.1
Host: server.example.com
Upgrade: websocket
Connection: Upgrade
Sec-WebSocket-Key: xxxxx
Sec-WebSocket-Version: 13

服务器如果同意升级,会返回:

bash 复制代码
HTTP/1.1 101 Switching Protocols
Upgrade: websocket
Connection: Upgrade

然后:

HTTP 连接升级为 WebSocket

后续通信就 不再使用 HTTP,而是 WebSocket 帧协议

因此可以总结为:

bash 复制代码
WebSocket = HTTP 握手 + 独立通信协议

端口和网络兼容

WebSocket 通常使用:

协议 默认端口
HTTP 80
HTTPS 443
WS 80
WSS 443

常见使用 WS 的典型场景:

  • 实时股票/行情(雪球、东方财富、同花顺)
  • 直播弹幕/聊天(抖音直播、B站直播、淘宝直播)
  • 体育比分、电竞数据
  • 在线监控、推送通知(某些银行风控页、游戏对战)
  • 某些 IM 类应用

特点:数据不是一次性加载,而是持续推送。页面初始 HTML 可能完全没数据(或只有骨架),所有内容靠 WS 实时进来。

如何判断网站用了 WebSocket?

1、F12 → Network

  • 切换到 WS 标签(WebSocket)
  • 刷新页面 → 如果出现 ws:// 或 wss:// 的连接,且状态是 101 Switching Protocols → 就是 WS!

2、看 Initiator:很多是 main.js 或 socket.js 发起的持久连接

如何爬取 WebSocket 数据

推荐优先级(从易到难):

方法1:Playwright / Puppeteer(最推荐,新手首选)
python 复制代码
Pythonfrom playwright.sync_api import sync_playwright

with sync_playwright() as p:
    browser = p.chromium.launch(headless=False)
    page = browser.new_page()
    page.goto("目标网址")
    
    # 监听所有 WebSocket
    page.on("websocket", lambda ws: print("WS 连接:", ws.url))
    
    # 监听消息(核心!)
    def handle_message(msg):
        print("收到 WS 数据:", msg)   # 这里就是你要的数据
    
    page.on("websocket", lambda ws: ws.on("framereceived", handle_message))
    
    input("按回车结束...")  # 保持运行

优点:自动处理握手、Cookie、反爬,几乎零逆向。

方法2:纯 Python websocket-client(轻量,适合已知 WS 地址)
python 复制代码
Pythonimport websocket

def on_message(ws, message):
    print("实时数据:", message)   # 解析 JSON 即可

ws = websocket.WebSocketApp(
    "wss://xxx.com/socket",          # 从 Network 复制 ws 地址
    on_message=on_message,
    header={"Cookie": "你的cookie"}   # 带登录态
)
ws.run_forever()

部分网站 WS 连接参数加密(token、sign、device_id),需要先逆向 JS 才能构造 ws url。这时通常结合 Playwright 更稳。

相关推荐
Mintopia2 小时前
时间源不统一 + 网络延迟 + 客户端时钟偏移
前端·架构
不甜情歌2 小时前
拆解JS原型核心:显式原型(prototype)+ 隐式原型(__proto__)+原型链,解锁JS继承的关键密码
前端·javascript
香草泡芙2 小时前
解锁AI Agent潜能:基于Langchain组件库的落地指南(2)
前端·javascript·人工智能
wuhen_n2 小时前
函数式组件 vs 有状态组件:何时使用更高效?
前端·javascript·vue.js
小码哥_常2 小时前
Kotlin开发秘籍:解锁Android编程新姿势
前端
ETA82 小时前
页面卡顿的元凶:可能是你没搞懂事件循环(面试可用)
前端·浏览器
毛骗导演2 小时前
OpenClaw 技能系统源码解析:一个 Markdown 文件是怎么变成 AI 的能力的
前端·架构
kyriewen2 小时前
当 JavaScript 试图做加法:一场混乱的“相亲”大会
前端·javascript·html