当前位置: 首页 > news >正文

SparkCore

第1章 RDD概述

1.1 什么是RDD

RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象。代码中是一个抽象类,它代表一个弹性的、不可变、可分区、里面的元素可并行计算的集合。
RDD类比工厂生产。

 内容和长度都是不可变化的!要修改数据或者加数据进去只能创建新的RDD,RDD的数据是存储在不同计算机的内存中,而Kafka存储在同一计算机的磁盘不同分区。
*** RDD类比工厂生产 ***。
懒加载机制,就是厂长发话才可以运转开干,中间的流程可进行优化,上一个过程结束之后,不存储数据,下一个过程继续,中间车间可以多个,也可以车间合并。
## 1.2 RDD五大特性
![在这里插入图片描述](https://img-blog.csdnimg.cn/1006ea59ad174a678b3bc09e19f61c16.png)
# 第2章 RDD编程
## 2.1 RDD的创建
在Spark中创建RDD的创建方式可以分为三种:从集合中创建RDD、从外部存储创建RDD、从其他RDD创建。
2.1.1 IDEA环境准备
1)创建一个maven工程,工程名称叫SparkCore
![在这里插入图片描述](https://img-blog.csdnimg.cn/c5c67a6a376e41dda98775796dcf4376.png)
2)创建包名:com.aa.createrdd
3)在pom文件中添加spark-core的依赖```dart
<dependencies><dependency><groupId>org.apache.spark</groupId><artifactId>spark-core_2.12</artifactId><version>3.1.3</version></dependency>
</dependencies>

4)如果不希望运行时打印大量日志,可以在resources文件夹中添加log4j.properties文件,并添加日志配置信息

log4j.rootCategory=ERROR, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n# Set the default spark-shell log level to ERROR. When running the spark-shell, the
# log level for this class is used to overwrite the root logger's log level, so that
# the user can have different defaults for the shell and regular Spark apps.
log4j.logger.org.apache.spark.repl.Main=ERROR# Settings to quiet third party logs that are too verbose
log4j.logger.org.spark_project.jetty=ERROR
log4j.logger.org.spark_project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=ERROR
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=ERROR
log4j.logger.org.apache.parquet=ERROR
log4j.logger.parquet=ERROR# SPARK-9183: Settings to avoid annoying messages when looking up nonexistent UDFs in SparkSQL with Hive support
log4j.logger.org.apache.hadoop.hive.metastore.RetryingHMSHandler=FATAL
log4j.logger.org.apache.hadoop.hive.ql.exec.FunctionRegistry=ERROR

2.1.2 创建IDEA快捷键

1)点击File->Settings…->Editor->Live Templates->output->Live Template
在这里插入图片描述
在这里插入图片描述
2)点击左下角的Define->选择JAVA
在这里插入图片描述
3)在Abbreviation中输入快捷键名称sc,在Template text中填写,输入快捷键后生成的内容。
在这里插入图片描述

// 1.创建配置对象
SparkConf conf = new SparkConf().setMaster("local[*]").setAppName("sparkCore");// 2. 创建sparkContext
JavaSparkContext sc = new JavaSparkContext(conf);// 3. 编写代码// 4. 关闭sc
sc.stop();
http://www.lryc.cn/news/160339.html

相关文章:

  • 配置 Windows 系统环境变量
  • 【计算机视觉】图片文件格式的讲解
  • 2023最全的性能测试种类介绍,这6个种类特别重要!
  • 代码随想录算法训练营19期第43天
  • 微信小程序wx.previewImage实现图片预览
  • Java实现Modbus读写数据
  • C++11新特性⑤ | 仿函数与lambda表达式
  • 解决websocket不定时出现1005错误
  • 文章内容生成随机图像,并将这些图像上链
  • l8-d9 UDP通信实现
  • MongoDB复杂聚合查询与java中MongoTemplate的api对应
  • WireShark抓包工具的安装
  • 审计智能合约的成本是多少?如何审计智能合约?
  • 9.7 校招 内推 面经
  • 【网络编程】IO多路复用
  • MySQL与postgreSQL数据库的区别
  • 单片机电子元器件-按键
  • Nacos docker实现nacos高可用集群项目
  • 基于Dubbo实现服务的远程调用
  • Redis事务的理解
  • PostgreSQL安装异常,服务无法启动导致创建服务器超时
  • 汽车电子系统网络安全解决方案
  • 切片机制和MR工作机制
  • 【postgresql 基础入门】基础架构和命名空间层次,查看数据库对象再也不迷路
  • 是的,决定放弃算法去机器学习了
  • Python 03(循环语句)
  • 安科瑞铁塔基站能耗监控解决方案
  • 操作系统-线程复用
  • 通达信自定义副图行业指标K线指标 HYZS_QD
  • MDK-Keil AC6 Compiler屏蔽特定警告