当前位置: 首页 > news >正文

haralyzer 半自动,一次性少量数据采集快捷方法

使用场景:半自动,一次性少量数据采集需求在工作中还是不少遇到的,无论使用模拟的方式,或者破解都不太划算。其实这种需求,使用半自动爬虫是最简单的。不需要考虑网站反爬虫的问题,因为你使用的就是真实的浏览器,不会通过代码来发起请求

  1. 从chrome获取har包
    首先打开浏览器的开发者工具,勾选上Perserve log复选框,如下图所示:
    在这里插入图片描述

然后刷新页面。注意一定要先打开开发者工具再刷新页面,顺序不能搞反了。接下来,你就正常往下滚动页面或者点击翻页按钮,滚到你不想滚为止。此时开发者工具里面已经有很多数据包了。如下图所示:

在这里插入图片描述

在任何一个数据包上面右键,选择Save all as HAR with content。就会把当前页面的所有数据包全部合并到一个 har 文件里面,如下图所示:
在这里插入图片描述
备注:如果遇到需要来回跳转的页面,可以使用抓包工具获取har,这个自己搜吧

  1. 示例代码,只需要按提示修改相关变量和函数即可运行
import json
import csv
import jsonpath
from haralyzer import HarParser
#功能: 解决一次性数据量不大的数据采集需求,通过chrome获取所有请求包,打包成har包,然后解析存储# har包获取方法:
# 1、打开chrome的检查,
# 2:勾选Network中的Preserve log,
# 3:刷新当前网页,点击下一页或者滑动,直到自己需要的数据加载完,
# 4: 点击右上角的下载图标,或者是选择任意一个请求,右击,点击’Save all as HAR with content‘# 代码使用方法: 按照需要修改har_file_path, url_keyword, csv_title_title三个变量,以及解析函数parser_har, 其他都不需要动def save_csv(title_list, data_list):'''保存数据到csv文件中'''data_list.insert(0, title_list)with open('result_csv.csv', 'w', encoding='utf-8-sig', newline='') as csvFile:writer = csv.writer(csvFile)# 写入多行用writerowswriter.writerows(data_list)print('组合数据运行结束, 结果文件result_csv.csv位于当前目录下')def read_har_file(har_file_path):'''读取指定路径的har文件'''har_parser = HarParser.from_file(har_file_path)data = har_parser.har_dataentries = data['entries']for entry in entries:yield entrydef crawle_har_to_csv(har_file_path, url_keyword, csv_title_title):'''主启动函数'''all_result_list = []for entry in read_har_file(har_file_path):url = entry['request']['url']if url.find(url_keyword) > -1:print(url)body = entry['response']if 'text' in body['content']:content = body['content']['text']info = json.loads(content)if sub_result_list := parser_har(info):all_result_list.extend(sub_result_list)save_csv(csv_title_title, all_result_list)#需要修改
def parser_har(json_content):'''解析har中的相关数据,这个需要根据具体返回内容进行修改'''result_list = []data_list = jsonpath.jsonpath(json_content, '$.data.content.offerList.*')if data_list:for offer in data_list:result_list.append([offer['subject'], offer['price']])return result_listelse:print('parser_har函数没有获取指定的data_list')return []if __name__ == '__main__':#har包地址, 需修改har_file_path = r'C:\Users\men\Desktop\milishipin.1688.com.har'#择选的请求唯一关键词,用来筛选关键词, 需修改url_keyword = 'mtop.1688.shop.data.get/1.0'#csv文件中的title列表, 需修改csv_title_title = ['名称', '价格']crawle_har_to_csv(har_file_path, url_keyword, csv_title_title)
http://www.lryc.cn/news/423404.html

相关文章:

  • mall-admin-web-master前端项目下载依赖失败解决
  • 【07】JVM是怎么实现invokedynamic的
  • 使用API有效率地管理Dynadot域名,查看参与的拍卖列表
  • Linux 基本指令讲解
  • PRE_EMPHASIS
  • 【QT常用技术讲解】多线程处理+全局变量处理异步事件并获取多个线程返回的结果
  • 数组列表中的最大距离
  • C语言新手小白详细教程(7)指针和指针变量
  • Kafka保证消息不丢失
  • 数据结构+基数排序算法
  • C++ list【常用接口、模拟实现等】
  • 12.面试题——Spring Boot
  • 【前端VUE】npm i 出现版本错误等报错 简单直接解决命令
  • 精彩回顾 | 风丘科技亮相2024名古屋汽车工程博览会
  • 设计模式21-组合模式
  • 如何选择深度学习的损失函数和激活函数
  • DATAX自定义KafkaWriter
  • Mybatis分页多表多条件查询
  • SpringBoot快速入门(手动创建)
  • C 408—《数据结构》算法题基础篇—数组(通俗易懂)
  • AI秘境-墨小黑奇遇记 - 初体验(一)
  • 文件IO813
  • STP(生成树)的概述和工作原理
  • 从AGV到立库,物流自动化的更迭与未来
  • 阴阳脚数码管
  • 【Vue3-Typescript】<script setup lang=“ts“> 使用 ref标签 怎么获取 refs子组件呢
  • npm 超详细使用教程
  • TypeScript函数
  • 中海油某海上平台轨道巡检机器人解决方案
  • 【NXP-MCXA153】SPI驱动移植