当前位置: 首页 > news >正文

Python + Requests库爬取动态Ajax分页数据

引言

在当今的互联网环境中,许多网站采用Ajax(Asynchronous JavaScript and XML)技术动态加载数据,以提高用户体验。传统的爬虫方法(如直接解析HTML)无法获取这些动态生成的内容,因此需要分析Ajax请求,模拟浏览器发送HTTP请求来获取数据。

本文将介绍如何使用Python + Requests库爬取动态Ajax分页数据,包括:

  1. 分析Ajax请求,找到数据接口
  2. 模拟请求参数,构造翻页逻辑
  3. 解析返回数据(通常是JSON格式)
  4. 存储数据(如CSV或数据库)

我们将以某电商网站(模拟案例)为例,演示如何爬取分页商品数据。

1. 分析Ajax请求

1.1 目标网站分析

假设目标网站的商品列表采用Ajax动态加载,URL结构如下:

https://example.com/api/products?page=1&size=10

  • **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">page</font>**:当前页码
  • **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">size</font>**:每页数据量

1.2 使用浏览器开发者工具

  1. 打开Chrome/Firefox开发者工具(F12)
  2. 进入Network(网络)选项卡
  3. 选择XHR(Ajax请求)
  4. 翻页时观察新增的请求,找到数据接口

https://example.com/ajax-analysis.png

1.3 确定请求参数

观察请求的:

  • URL(是否包含页码参数)
  • Headers(是否需要**<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">User-Agent</font>****<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">Referer</font>**等)
  • 请求方式(GET/POST)
  • 返回数据格式(通常是JSON)

2. Python + Requests 实现爬取

2.1 安装依赖库

2.2 构造请求函数

import requests
import pandas as pddef fetch_ajax_data(page):url = "https://example.com/api/products"headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36","Referer": "https://example.com/products",}params = {"page": page,"size": 10,}response = requests.get(url, headers=headers, params=params)if response.status_code == 200:return response.json()  # 假设返回的是JSON数据else:print(f"请求失败,状态码:{response.status_code}")return None

2.3 解析数据并翻页

def crawl_ajax_pages(max_pages=5):all_products = []for page in range(1, max_pages + 1):print(f"正在爬取第 {page} 页...")data = fetch_ajax_data(page)if data and "products" in data:all_products.extend(data["products"])else:print(f"第 {page} 页无数据或解析失败")return all_products

2.4 存储数据(CSV)

def save_to_csv(data, filename="products.csv"):df = pd.DataFrame(data)df.to_csv(filename, index=False, encoding="utf-8-sig")print(f"数据已保存至 {filename}")# 执行爬取
if __name__ == "__main__":products = crawl_ajax_pages(max_pages=5)if products:save_to_csv(products)

3. 进阶优化

3.1 处理反爬机制

  • 随机User-Agent:防止被识别为爬虫
  • 请求间隔:避免被封IP
  • 代理IP:应对IP限制
import time
from fake_useragent import UserAgentdef fetch_ajax_data_safe(page):ua = UserAgent()headers = {"User-Agent": ua.random,"Referer": "https://example.com/products",}time.sleep(1)  # 避免请求过快# 其余代码同上...

3.2 异常处理

try:response = requests.get(url, headers=headers, params=params, timeout=10)response.raise_for_status()  # 检查HTTP错误
except requests.exceptions.RequestException as e:print(f"请求异常:{e}")return None

3.3 多线程/异步爬取(提高效率)

import concurrent.futuresdef crawl_with_threads(max_pages=5, workers=3):with concurrent.futures.ThreadPoolExecutor(max_workers=workers) as executor:futures = [executor.submit(fetch_ajax_data, page) for page in range(1, max_pages + 1)]all_products = []for future in concurrent.futures.as_completed(futures):data = future.result()if data:all_products.extend(data.get("products", []))return all_products

4. 完整代码示例

import requests
import pandas as pd
import time
from fake_useragent import UserAgent# 代理服务器配置
proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"# 构造代理字典
proxies = {"http": f"http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}","https": f"http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}",
}def fetch_ajax_data(page):ua = UserAgent()url = "https://example.com/api/products"headers = {"User-Agent": ua.random,"Referer": "https://example.com/products",}params = {"page": page,"size": 10,}try:time.sleep(1)  # 防止请求过快# 添加proxies参数使用代理response = requests.get(url,headers=headers,params=params,timeout=10,proxies=proxies)response.raise_for_status()return response.json()except requests.exceptions.RequestException as e:print(f"第 {page} 页请求失败:{e}")return Nonedef crawl_ajax_pages(max_pages=5):all_products = []for page in range(1, max_pages + 1):print(f"正在爬取第 {page} 页...")data = fetch_ajax_data(page)if data and "products" in data:all_products.extend(data["products"])else:print(f"第 {page} 页无数据或解析失败")return all_productsdef save_to_csv(data, filename="products.csv"):df = pd.DataFrame(data)df.to_csv(filename, index=False, encoding="utf-8-sig")print(f"数据已保存至 {filename}")if __name__ == "__main__":products = crawl_ajax_pages(max_pages=5)if products:save_to_csv(products)

5. 总结

本文介绍了如何使用Python + Requests库爬取动态Ajax分页数据,核心步骤包括:

  1. 分析Ajax请求(使用浏览器开发者工具)
  2. 模拟请求参数(Headers、Query Params)
  3. 翻页逻辑实现(循环请求不同页码)
  4. 数据存储(CSV、数据库等)
  5. 反爬优化(随机UA、代理IP、请求间隔)

这种方法适用于大多数动态加载数据的网站,如电商、新闻、社交媒体等。如果需要更复杂的动态渲染(如JavaScript生成内容),可结合SeleniumPlaywright实现。

http://www.lryc.cn/news/602167.html

相关文章:

  • 云原生作业(haproxy)
  • 迅为RK3568开发板OpeHarmony学习开发手册-配置电源管理芯片和点亮HDMI屏幕-配置电源管理芯片
  • Vue2-封装一个含所有表单控件且支持动态增减行列的表格组件
  • 行业案例:杰和科技为智慧教育构建数字化硬件底座
  • vue如何在data里使用this
  • 【保姆级喂饭教程】Python依赖管理工具大全:Virtualenv、venv、Pipenv、Poetry、pdm、Rye、UV、Conda、Pixi等
  • 热门JavaScript库“is“等软件包遭npm供应链攻击植入后门
  • 【SpringMVC】MVC中Controller的配置 、RestFul的使用、页面重定向和转发
  • 构建你的专属区块链:深入了解 Polkadot SDK
  • C语言-数组:数组(定义、初始化、元素的访问、遍历)内存和内存地址、数组的查找算法和排序算法;
  • 《 服务注册发现原理:从 Eureka 到 Nacos 的演进》
  • Docker搭建Hadoop集群
  • 【科普】STM32CubeMX是配置工具,STM32CubeIDE是集成开发环境,二者互补但定位不同,前者负责初始化配置,后者专注代码开发调试。
  • 魔术橡皮:一键抠图、一键去除图片多余物体软件、图片变清晰软件、图片转漫画软件、图片转素描软件
  • 【C++详解】深入解析继承 类模板继承、赋值兼容转换、派生类默认成员函数、多继承与菱形继承
  • sqli-labs通关笔记-第23关 GET字符型注入(单引号闭合-过滤注释符 手工注入+脚本注入两种方法)
  • 常见的接⼝测试⾯试题
  • 【深度学习优化算法】10:Adam算法
  • 力扣面试150题--颠倒二进制位
  • 医疗领域非结构化数据处理技术突破与未来演进
  • Java学习-----JVM的垃圾回收算法
  • 虚拟地址空间:从概念到内存管理的底层逻辑
  • Nuxt3 全栈作品【通用信息管理系统】修改密码
  • React中的合成事件解释和理解
  • 架构实战——互联网架构模板(“开发层”和“服务层”技术)
  • DevOps时代的知识治理革命:Wiki如何成为研发效能的新引擎
  • 并发安全之锁机制一
  • 小架构step系列28:自定义校验注解
  • “太赫兹”
  • KubeSphere理论及实战