当前位置: 首页 > news >正文

Python爬虫实战:图片爬取与保存

引言:
        在本文中,我们将学习如何使用Python创建一个简单的图片爬虫

        我们将利用requests来发送HTTP请求,BeautifulSoup来解析HTML页面,以及osshutil库来下载和保存图片。通过这个教程,你将学会如何爬取网页上的图片并保存到本地。

目录

一、准备工作

在开始之前,请确保你已经安装了Python,并且安装了以下库:

你可以使用以下命令来安装这些库:

二、代码实现 

三、代码解析



一、准备工作

在开始之前,请确保你已经安装了Python,并且安装了以下库:
  • requests用于发送HTTP请求
  • beautifulsoup4用于解析HTML页面
你可以使用以下命令来安装这些库:
pip install requests beautifulsoup4

二、代码实现 

import os  
import requests  
from bs4 import BeautifulSoup  
from urllib.parse import urljoin  
from urllib.request import urlretrieve  def download_images(url, save_dir):  """  下载指定网页上的所有图片并保存到本地文件夹  :param url: 目标网页的URL  :param save_dir: 图片保存的目录  """  # 创建保存图片的目录  if not os.path.exists(save_dir):  os.makedirs(save_dir)  # 发送HTTP请求  response = requests.get(url)  response.raise_for_status()  # 如果请求失败,抛出异常  # 使用BeautifulSoup解析页面  soup = BeautifulSoup(response.text, 'html.parser')  # 查找所有的图片链接  image_links = soup.find_all('img')  # 下载并保存图片  for img in image_links:  img_url = img.get('src')  # 如果图片链接是相对路径,则将其转换为绝对路径  if not img_url.startswith(('http://', 'https://')):  img_url = urljoin(url, img_url)  # 下载图片  img_name = os.path.join(save_dir, img_url.split('/')[-1])  urlretrieve(img_url, img_name)  print(f"Downloaded: {img_name}")  # 使用示例  
url = "https://example.com"  # 替换为你要爬取的网页的URL  
save_dir = "images"  # 图片保存的目录  
download_images(url, save_dir)

三、代码解析

  • 导入库:首先,我们导入了所需的库,包括osrequestsBeautifulSoupurllib.parseurllib.request
  • 定义函数:我们定义了一个名为download_images的函数,它接受两个参数url(目标网页的URL)和save_dir(图片保存的目录)
  • 创建保存目录:如果指定的保存目录不存在,我们将创建它。
  • 发送HTTP请求:使用requests.get方法发送HTTP请求,并使用response.raise_for_status检查请求是否成功。
  • 解析页面:使用BeautifulSoup解析HTML页面,并查找所有的<img>标签,以获取图片链接。
  • 下载并保存图片:遍历每个图片链接,将其转换为绝对路径(如果需要),并使用urlretrieve方法下载图片然后,将图片保存到指定的目录,并打印出下载的文件名。
  • 使用示例:最后,我们提供了一个使用示例,包括目标网页的URL和图片保存的目录。

四、注意事项

  • 在使用爬虫时,请确保遵守目标网站的robots.txt文件和使用条款,并尊重他人的版权和隐私。
  • 不要对网站造成过大的压力或进行恶意爬取。
  • 可以根据需要进一步扩展此代码,例如增加错误处理、添加代理支持、限制并发请求数、使用异步IO等。

通过本文的学习,你已经掌握了如何使用Python创建一个简单的图片爬虫。你可以根据自己的需求进一步扩展和优化这个爬虫。记得在使用爬虫时要遵守相关规定和法律法规,尊重他人的权益。

http://www.lryc.cn/news/306912.html

相关文章:

  • CMS垃圾回收器
  • 【力扣白嫖日记】184.部门工资最高的员工
  • JAVA讲解算法-排序算法-选择排序算法-02
  • 【初始RabbitMQ】高级发布确认的实现
  • 用39块钱的全志V851se视觉开发板做了个小相机,还可以物品识别、自动追焦!
  • 主从复制实现Redis集群
  • 高分文献解读|3D打印骨支架实现梯度密度颌骨功能性重建
  • 大型电商日志离线分析系统(一)
  • FL Studio Fruity Edition2024中文入门版Win/Mac
  • 学习vue3第二节(使用vite 创建vue3项目)
  • 基于Siamese网络的zero-shot意图分类
  • Java架构师之路五、微服务:微服务架构、服务注册与发现、服务治理、服务监控、容器化等。
  • [计算机网络]--IP协议
  • MySQL问题记录
  • LeetCode_Java_动态规划系列(1)(题目+思路+代码)
  • Linux使用Docker部署在线协作白板WBO并结合内网穿透发布公网远程访问
  • petalinux烧写image.ub报错
  • [足式机器人]Part2 Dr. CAN学习笔记-Ch00-2 - 数学知识基础
  • 【Linux】head命令使用
  • 【书籍分享 • 第三期】虚拟化与容器技术
  • 数据结构之:堆
  • 助力探索社交出海最短变现路径,融云 1V1 音视频「限时免费」
  • 汇编工具理解
  • Leetcoder Day21| 回溯理论基础+组合
  • 备战蓝桥杯Day17 - 链表
  • 登录页设计新选择:毛玻璃和新拟态风格,非2.5D和插画风
  • 14:00面试,14:05就出来了,问的问题有点变态。。。
  • 关于纯前端想要变成全栈编写接口的学习推荐
  • Rust升级慢,使用国内镜像进行加速
  • Base64 编码 lua