当前位置: 首页 > news >正文

解决Python爬虫开发中的数据输出问题:确保正确生成CSV文件

亿牛云代理.png

引言

在大数据时代,爬虫技术成为获取和分析网络数据的重要工具。然而,许多开发者在使用Python编写爬虫时,常常遇到数据输出问题,尤其是在生成CSV文件时出错。本文将详细介绍如何解决这些问题,并提供使用代理IP和多线程技术的完整示例代码,以确保高效、准确地生成CSV文件。

正文

一、常见问题分析

  1. 数据提取不完整:网页结构变化或抓取逻辑错误导致数据提取不全。
  2. 编码问题:不同网页的编码格式不同,可能导致乱码。
  3. 文件写入问题:CSV文件写入过程中的格式或权限问题。

二、解决方案

  1. 使用代理IP:避免因IP被封禁导致的数据提取失败。
  2. 设置User-Agent和Cookie:模拟浏览器行为,提高成功率。
  3. 多线程技术:提升数据抓取效率,减少等待时间。
  4. 编码处理:确保爬取数据的编码统一,避免乱码。

实例

以下代码展示了如何使用代理IP、多线程技术进行高效、稳定的数据抓取,并正确生成CSV文件。示例中使用了亿牛云爬虫代理。

import requests
from bs4 import BeautifulSoup
import csv
import threading
import queue# 常量
SEARCH_URL = "https://pubmed.ncbi.nlm.nih.gov/"
QUERY = "Breast Cancer"
START_DATE = "2023/06/01"
END_DATE = "2023/12/31"
HEADERS = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36","Cookie": "your_cookie_here"
}
# 设置代理 亿牛云爬虫代理加强版 www.16yun.cn
PROXY = {"http": "http://username:password@proxy.16yun.cn:12345","https": "http://username:password@proxy.16yun.cn:12345"
}# 线程锁
lock = threading.Lock()# 获取文章链接
def fetch_article_links(query, start_date, end_date):params = {"term": query,"mindate": start_date,"maxdate": end_date}response = requests.get(SEARCH_URL, params=params, headers=HEADERS, proxies=PROXY)soup = BeautifulSoup(response.text, 'html.parser')article_links = [a['href'] for a in soup.find_all('a', class_='docsum-title')]return article_links# 获取文章详情
def fetch_article_details(article_link, data_queue):try:response = requests.get(article_link, headers=HEADERS, proxies=PROXY)soup = BeautifulSoup(response.text, 'html.parser')title = soup.find('h1', class_='heading-title').text.strip()authors = [a.text.strip() for a in soup.find_all('a', class_='full-name')]pub_date = soup.find('span', class_='cit').text.strip()abstract = soup.find('div', class_='abstract-content').text.strip()data_queue.put({"Title": title,"Authors": ", ".join(authors),"Publication Date": pub_date,"Abstract": abstract})except Exception as e:print(f"Error fetching details for {article_link}: {e}")# 保存为CSV文件
def save_to_csv(data_queue, filename='pubmed_breast_cancer.csv'):with lock:with open(filename, mode='w', newline='', encoding='utf-8') as file:writer = csv.DictWriter(file, fieldnames=["Title", "Authors", "Publication Date", "Abstract"])writer.writeheader()while not data_queue.empty():writer.writerow(data_queue.get())# 主函数
def main():article_links = fetch_article_links(QUERY, START_DATE, END_DATE)base_url = "https://pubmed.ncbi.nlm.nih.gov"data_queue = queue.Queue()threads = []for link in article_links:full_link = f"{base_url}{link}"t = threading.Thread(target=fetch_article_details, args=(full_link, data_queue))t.start()threads.append(t)for t in threads:t.join()save_to_csv(data_queue)if __name__ == "__main__":main()

结论

本文介绍了如何通过使用代理IP、设置User-Agent和Cookie、多线程技术,以及正确处理编码等方法,解决Python爬虫开发中的数据输出问题。通过这些措施,开发者可以确保高效、准确地生成CSV文件,为后续数据分析提供可靠支持。希望这篇文章能为您的爬虫开发提供实用的指导和帮助。

http://www.lryc.cn/news/391527.html

相关文章:

  • SCI一区TOP|徒步优化算法(HOA)原理及实现【免费获取Matlab代码】
  • Android的activity广播无法接收,提示process gone or crashing原因有可能是那些?
  • 如何将等保2.0的要求融入日常安全运维实践中?
  • 51单片机嵌入式开发:STC89C52环境配置到点亮LED
  • 源代码加密:保护你的数字宝藏
  • Jackson库使用教程
  • 汉王、绘王签字版调用封装
  • 如何在TikTok上获得更多观看量:12个流量秘诀
  • vue模板语法v-html
  • 13 Redis-- 数据一致性模型、MySQL 和 Redis 的数据一致性
  • 启动Nuxt-hub-starter: Failed to initialize wrangler bindings proxy write EOF
  • 技术驱动旅游创新!深度解析景区导览小程序的地图渲染与AR导航技术
  • 二叉树之遍历
  • 【经验贴】如何做好自己的职业规划(技术转项目经理)
  • 【笔记】字符串相似度代码分享
  • AI墓地:738个倒闭AI项目的启示
  • 工程文件参考——CubeMX+LL库+SPI主机 阻塞式通用库
  • LLM - 模型历史
  • Go语言中的时间与日期处理:time包详解
  • Java实现单点登录(SSO)详解:从理论到实践
  • 【leetcode82-91动态规划,91-95多维动态规划】
  • Django学习第四天
  • redis-benchmark 使用
  • 什么是 qobject_cast?
  • Python酷库之旅-第三方库Pandas(001)
  • Firefox 编译指南2024 Windows10篇- 编译Firefox(三)
  • CSS弹性布局:打造响应式与灵活的网页设计
  • 【高阶数据结构】图的应用--最短路径算法
  • 腾讯云函数node.js返回自动带反斜杠
  • 大模型知识学习