当前位置: 首页 > news >正文

爬虫第七篇数据爬取及解析

这篇博客旨在分享学习过程中的心得和体会,如果有错误请指出,感谢大家。

经过前面的学习,那么我们也就进入了数据爬取的阶段,大家跟着我的步伐一起来学习一下,爬虫的数据爬取与数据解析(本篇主要针对于带有页码的网页)

第一站单页数据获取

首先我们从简单的带页码的网页开始爬取,为啥从带页码的网页开始,有页码的网页点击页码会重新刷新页码数据,可以去掉一部分我们不需要的数据(因为我们一般需要的数据都在页码包含的url里面)

我们接下来实现输入我们需要的页码,然后爬虫自动去获取对应页面的数据,然后返回给我们,再将页码内容需要的具体数据输出

第一步找到页码在url上面的对应数据位置

我们先将其中几页的目标url,将其取下来,比对一下,哪个数据有可能是对应页码的数据

我试验的网址是{pageindex=页码}所以我们可以把url = f‘http://....&pageindex={你定义的变量}

这样改完url之后,获取完你输入的数字后,他会自动写入url,取获取对应网页的数据那么代码如下

import requests# 用户输入页码
pageindex = input('请输入你要查看的神秘页码:')
url = f'https://example.com/api/data?pageIndex={pageindex}'
res = requests.get(url)

记得url都最好带上这个f,这样他会用fstring去获取,不容易出错 ,不然会出现解析不出来的情况

 第二步解析目标数据

然后就是解析目标数据,然后去获取我们需要的数据

比如目标数据格式为

{"code":200,"data":{

"posts":[{"id"=0,"name"=xiaoli

}]}}

这个时候我们需要去获取最里面的id和name数据我们应该怎么写呢?

print(['data']['post'][0]['id'])

第三步循环取出所有需要的id 

那么我们再衍生一下,通过循环将列表post里面的所有的id都取出来需要怎么写呢?

#将响应数据转换为字典类型
res_data = res.jason()
for i in res_data['data']['post']#通过for循环遍历数据,取出其中的idprint(i['id'])

由此我们就完成了我们最开始的第一个目标,输入页码跳转对应页面,并输出需要的数据

 第二站多页数据获取

获取多页的数据比如获取1-10页的全部的id数据

第一步构建循环去获取1-10页的全部数据

这是知道需要的页码数量的情况下的

import request
for page_index in range(1,11):url = https://....pageindex={page_index}....res = request.get(url)res=res.jason()

 第二步通过循环去解析对应页码里面数据里的id

import request
num = 1
for page_index in range(1,11):url = https://....pageindex={page_index}....res = request.get(url)res_data=res.jason()for i in res_data['data']['post']#通过for循环遍历数据,取出其中的idprint(i['id'])

第三站未知页数数据获取

根据上面的内容,那么我们只要加一个判定上面时候拉去数据为空就停止即可完成全部网页的拉取

import requestspage_index = 1  # 代表分页
count = 1  # 代表取出的序号
while True:url = f'https://...pageIndex={page_index}...'res = requests.get(url)res_data = res.json()# 结束的判断条件if res_data['Data']['Posts'] == []:#根据网页的数据去判断什么时候拉不到数据break# 解析数据for i in res_data['Data']['Posts']:print(count, i['id'])count += 1print(f'第{page_index}页数据已经全部获取完毕')page_index += 1

以上可以去弄比较简单的网页,如果网页会去判断你是否为真人,那么你就需要加上伪装

headers = {'user-agent':'你网页里的useragent'
}

http://www.lryc.cn/news/540803.html

相关文章:

  • LangChain 技术入门指南:探索语言模型的无限可能
  • 解锁D3.js与PlantUML的交互奥秘:探索知识图谱数据可视化新领域
  • OpenCV机器学习(8)随机森林(Random Forests)算法cv::ml::RTrees类
  • Java四大框架深度剖析:MyBatis、Spring、SpringMVC与SpringBoot
  • MySQL系列之身份鉴别(安全)
  • 纯手工搭建整套CI/CD流水线指南
  • 侯捷 C++ 课程学习笔记:C++ 基础与演化
  • LangChain:AI大模型开发与分布式系统设计
  • AI赋能编程:PyCharm与DeepSeek的智能开发革命
  • c++:stack与deque
  • Linux-C/C++《C++/1、C++基础》(C++语言特性、面向对象等)
  • 交易所开发:数字市场的核心动力
  • Spring Boot 应用(官网文档解读)
  • .Net面试宝典【刷题系列】
  • Unity游戏制作中的C#基础(3)加减乘除算术操作符,比较运算符,逻辑与,或运算符
  • 如何优化 Webpack 的构建速度?
  • win10把c盘docker虚拟硬盘映射迁移到别的磁盘
  • conda 配置源
  • 使用nvm管理node.js版本,方便vue2,vue3开发
  • Linux离线环境安装miniconda并导入依赖包
  • 【opencv】图像基本操作
  • 泛微OA编写后端Rest接口
  • AI助力下的PPT革命:DeepSeek 与Kimi的高效创作实践
  • 002 SpringCloudAlibaba整合 - Feign远程调用、Loadbalancer负载均衡
  • 计算机视觉之图像处理-----SIFT、SURF、FAST、ORB 特征提取算法深度解析
  • DeepSeek接入Siri(已升级支持苹果手表)完整版硅基流动DeepSeek-R1部署
  • elabradio入门第八讲——帧同步技术
  • 站长工具SEO综合查询是什么?怎么利用站长工具SEO综合查询
  • 超简单理解KMP算法(最长公共前后缀next数组、合并主子串、子串偏移法)
  • 【每日论文】TESS 2: A Large-Scale Generalist Diffusion Language Model