当前位置: 首页 > news >正文

Hadoop的MapReduce详解

文章目录

  • Hadoop的MapReduce详解
    • 一、引言
    • 二、MapReduce的核心概念
      • 1、Map阶段
        • 1.1、Map函数的实现
      • 2、Reduce阶段
        • 2.1、Reduce函数的实现
    • 三、MapReduce的执行流程
    • 四、MapReduce的使用实例
      • Word Count示例
        • 1. Mapper类
        • 2. Reducer类
        • 3. 执行Word Count
    • 五、总结

Hadoop的MapReduce详解

一、引言

MapReduce是一个由Google提出并实现的软件框架,用于大规模数据集(大于1TB)的并行计算。在Hadoop项目中,MapReduce被用来进行分布式数据处理。它将任务分为Map阶段和Reduce阶段,Map阶段负责处理输入数据并产生中间结果,Reduce阶段则对Map阶段的中间结果进行汇总以得到最终结果。

二、MapReduce的核心概念

1、Map阶段

Map阶段是MapReduce框架中的第一个阶段,它的主要任务是处理输入数据并生成中间结果。Map函数接收输入的键值对,并产生一组中间键值对,这些中间结果会被框架自动收集并传递给Reduce阶段。

1.1、Map函数的实现
public static class TokenizerMapperextends Mapper<Object, Text, Text, IntWritable>{private final static IntWritable one = new IntWritable(1);private Text word = new Text();public void map(Object key, Text value, Context context) throws IOException, InterruptedException {StringTokenizer itr = new StringTokenizer(value.toString());while (itr.hasMoreTokens()) {word.set(itr.nextToken());context.write(word, one);}}
}

在上述代码中,Mapper类继承自org.apache.hadoop.mapreduce.Mapper类,map方法接收输入的文本行,并将其分割成单词,每个单词作为键,对应的值固定为1。

2、Reduce阶段

Reduce阶段是MapReduce框架中的第二个阶段,它接收来自Map阶段的中间结果,并进行汇总处理,最终输出计算结果。

2.1、Reduce函数的实现
public static class IntSumReducerextends Reducer<Text,IntWritable,Text,IntWritable> {private IntWritable result = new IntWritable();public void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {int sum = 0;for (IntWritable val : values) {sum += val.get();}result.set(sum);context.write(key, result);}
}

在上述代码中,Reducer类继承自org.apache.hadoop.mapreduce.Reducer类,reduce方法接收相同的键和该键对应的所有值的集合,计算这些值的总和,并将结果输出。
在这里插入图片描述

三、MapReduce的执行流程

MapReduce的执行流程大致可以分为以下几个步骤:

  1. 输入分片:Hadoop将输入数据切分成多个数据块,并为每个数据块分配一个Map任务。
  2. Map任务执行:每个Map任务对分配到的数据块进行处理,并产生中间结果。
  3. Shuffle和Sort:Map任务产生的中间结果被Shuffle(重新分配)和Sort(排序)。
  4. Reduce任务执行:Reduce任务对排序后的中间结果进行处理,并输出最终结果。
  5. 输出结果:Reduce任务的输出结果被写入到HDFS中。

在这里插入图片描述

四、MapReduce的使用实例

Word Count示例

Word Count是MapReduce中的经典应用之一,其主要任务是统计文本文件中每个单词出现的次数。以下是Word Count的实现步骤和代码示例:

1. Mapper类

Mapper类负责读取输入的文本行,并将其分割成单词,然后输出键值对,其中键是单词,值是1。

public class TokenizerMapperextends Mapper<Object, Text, Text, IntWritable>{private final static IntWritable one = new IntWritable(1);private Text word = new Text();public void map(Object key, Text value, Context context) throws IOException, InterruptedException {StringTokenizer itr = new StringTokenizer(value.toString());while (itr.hasMoreTokens()) {word.set(itr.nextToken());context.write(word, one);}}
}
2. Reducer类

Reducer类接收相同的键和该键对应的所有值的集合,计算这些值的总和,并将结果输出。

public static class IntSumReducerextends Reducer<Text,IntWritable,Text,IntWritable> {private IntWritable result = new IntWritable();public void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {int sum = 0;for (IntWritable val : values) {sum += val.get();}result.set(sum);context.write(key, result);}
}
3. 执行Word Count

执行Word Count的命令如下:

hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jar wordcount input.txt output

这里input.txt是输入文件,output是输出目录。执行后,输出目录中会包含处理结果,通常包括_SUCCESSpart-r-00000两个文件,其中part-r-00000包含了最终的单词计数结果。

五、总结

MapReduce是一种强大的分布式数据处理框架,它通过将复杂的数据处理任务分解为简单的Map和Reduce操作,使得对大规模数据集的处理变得简单和高效。理解MapReduce的工作原理和核心概念对于大数据处理领域的开发者来说至关重要。


版权声明:本博客内容为原创,转载请保留原文链接及作者信息。

参考文章

  • Hadoop笔记_3
  • (超详细)MapReduce工作原理及基础编程
http://www.lryc.cn/news/490271.html

相关文章:

  • 全新配置ubuntu18.04深度学习环境
  • 持续集成与持续部署:CI/CD实现教程
  • 深度学习实验十二 卷积神经网络(3)——基于残差网络实现手写体数字识别实验
  • Linux系统如何排查端口占用
  • Linux常用命令之id命令详解
  • WGCLOUD如何部署在ARM平台
  • K8S + Jenkins 做CICD
  • HarmonyOS4+NEXT星河版入门与项目实战(11)------Button组件
  • 小米note pro一代(leo)线刷、twrp、magisk、TODO: android源码编译
  • 鸿蒙开发Hvigor插件动态生成代码
  • 使用ENSP实现静态路由
  • Java String 字符串常用操作
  • 4.4 MySQL 触发器(Trigger)
  • C语言——break、continue、goto
  • oracle数据恢复总结篇
  • 运维面试题.云计算面试题之四.K8S
  • el-select 和el-tree二次封装
  • C++11:多线程编程
  • 【H2O2|全栈】JS进阶知识(八)ES6(4)
  • OmniDiskSweeper :一款专为 macOS 设计的磁盘使用分析工具
  • 【什么是Redis?】
  • React第十六章(useLayoutEffect)
  • shell 基础知识2 ---条件测试
  • 【线程】Java线程操作
  • Linux内核
  • Sentinel服务保护
  • python代码制作数据集的测试和数据质量检测思路
  • 笔记记录 k8s-install
  • 丹摩征文活动|基于丹摩算力的可图(Kolors)的部署与使用
  • 【Vue】 npm install amap-js-api-loader指南