当前位置: 首页 > news >正文

伪分布式Spark集群搭建

一、软件环境

    

    

    

VMware虚拟机

16

VMware-workstation-full-16.2.2-19200509.exe

SSH连接工具

FinalShell

Linux OS

CentOS7.5

CentOS-7.5-x86_64-DVD-1804.iso

JDK

1.8

jdk-8u161-linux-x64.tar.gz

Spark

3.2.1

spark-3.2.1-bin-hadoop2.7.tgz

二、实训操作步骤

技能点1:Final Shell连接虚拟机 

①打开虚拟机终端,输入命令ifconfig,查看虚拟机的IP地址。

②打开Final Shell,进行SSH连接虚拟机。

③设置IP地址,使用root账户和密码进行连接登录。

技能点2:上传Spark安装包并解压

①上传Spark安装包

使用FinalShell软件将HBase安装包spark-3.2.1-bin-hadoop2.7.tgz上传至虚拟机的/opt目录下。

②解压Spark安装包 

使用“tar”命令将HBase解压至/usr/local目录下,具体命令如下:

tar -zxvf /opt/spark-3.2.1-bin-hadoop2.7.tgz -C /usr/local/

技能点3:配置spark-env.sh文件

①进入到Spark安装包的conf目录下,具体命令如下:

cd /usr/local/spark-3.2.1-bin-hadoop2.7/conf

②将spark-env.sh.template复制为spark-env.sh,具体命令如下:

cp spark-env.sh.template spark-env.sh

③输入“vi spark-env.sh”命令,打开文件,在文件末尾添加如下代码:

#Jdk安装路径export JAVA_HOME=/usr/local/jdk1.8.0_161      #Hadoop安装路径export HADOOP_HOME=/usr/local/hadoop-3.1.4#Hadoop配置文件的路径                export HADOOP_CONF_DIR=/usr/local/hadoop-3.1.4/etc/hadoop    #Spark主节点的IP地址或机器名export SPARK_MASTER_IP=hadoop                                                            #Spark本地的IP地址或机器名export SPARK_LOCAL_IP=hadoop  

技能点4:启动测试Spark集群 

①目录切换到sbin目录下启动集群。

#进入到sbin目录下
cd /usr/local/spark-3.2.1-bin-hadoop2.7/sbin#启动spark集群./start-all.sh

②jps查看进程。

③切换到Spark安装包的/bin目录下(cd /usr/local/spark-3.2.1-bin-hadoop2.7/bin),使用SparkPi来计算Pi的值。

#切换到Spark安装包的/bin目录下
cd /usr/local/spark-3.2.1-bin-hadoop2.7/bin
#运行程序
./run-example SparkPi 2

技能点5:浏览器访问Spark 页面 

①关闭防火墙 输入命令“systemctl stop firewalld.service

②打开浏览器访问Spark自带web页面 浏览器输入网址:http://192.168.15.128:8080/

③效果图如下

http://www.lryc.cn/news/317935.html

相关文章:

  • Android 监听卫星导航系统状态及卫星测量数据变化
  • 鸿蒙培训开发:就业市场的新热点~
  • 【C++】string的底层剖析以及模拟实现
  • Unity的PICO项目基础环境搭建笔记(调试与构建应用篇)
  • 电脑远程桌面选项变成灰色没办法勾选怎么办?
  • 2024.3.14
  • chatGPT的耳朵!OpenAI的开源语音识别AI:Whisper !
  • C语言冒泡排序
  • vue2 elementui 封装一个动态表单复杂组件
  • 基于智慧灯杆的智慧城市解决方案(2)
  • 「Paraverse平行云」亮相HKSTP OPENHOUSE活动
  • CubeMX使用教程(5)——定时器PWM输出
  • superset连接Apache Spark SQL(hive)过程中的各种报错解决
  • Pulsar IO实战
  • Linux/Ubuntu/Debian基本命令:文本操作
  • Self-supervised Contextual Keyword and Keyphrase Retrieval with Self-Labelling
  • 新 树莓派4B 温湿度监测 基于debian12的树莓派OS
  • 人工智能入门之旅:从基础知识到实战应用(一)
  • GNN/GCN自己学习
  • honle电源维修UV电源控制器维修EVG EPS60
  • 【学习心得】Python好库推荐——websocket-client
  • 3.1_8 两级页表
  • 【SysBench】sysbench-1.20 命令速查表
  • neo4j网页无法打开,启动一会儿后自动关闭,查看neo4j status显示Neo4j is not running.
  • 一键卸载和安装 nvidia、cuda、cudnn、tensorrt
  • LeetCode 389. 找不同
  • 科技云报道:两会热议的数据要素,如何拥抱新技术?
  • 【linux】进程管理:进程控制块、进程号、fork创建进程、特殊进程及exec函数族解析
  • 【DL经典回顾】激活函数大汇总(八)(Maxout Softmin附代码和详细公式)
  • Docker进阶:深入了解 Dockerfile