当前位置: 首页 > news >正文

【Spark】spark使用jdbc连接带有kerberos认证的hive jdbc

背景

这个需求就是spark不通过spark-hive的方式访问hive数据,而是通过spark读取hive jdbc的方式访问hive数据,因为这个hivekerberos认证,在网上也不是很容易搜索到这样的操作案例。不多bb,直接上教程。

准备工作

准备一个hive-jaas.conf内容如下:

com.sun.security.jgss.initiate {com.sun.security.auth.module.Krb5LoginModule requireduseKeyTab=truekeyTab="xxx.keytab"principal="xxx@XXX.XXX.COM"doNotPrompt=true;
};

这里的头的xxx替换成你环境中对应的配置就行了

测试代码如下:

public class App {public static void main(String[] args) {SparkSession spark = SparkSession.builder().master("local").getOrCreate();JdbcDialects.registerDialect(new HiveDialect());Properties properties = new Properties();properties.setProperty("driver", "org.apache.hive.jdbc.HiveDriver");Dataset<Row> jdbcDF = spark.read().jdbc("jdbc:hive2://your_hive_server2_address:10000/database;principal=hive/_HOST@XXX.COM;auth=Kerberos", "database.table", properties);jdbcDF.show();spark.stop();}
}

这个代码的作用就是使用spark jdbc API通过hive jdbc去连接hive读取hive中的一张表,然后执行展示。
这里要注意下这个jdbc的连接地址和后面跟随的参数:

jdbc:hive2://your_hive_server2_address:10000/database;principal=hive/_HOST@XXX.COM;auth=Kerberos
里头your_hive_server2_address写成你的环境里对应的地址。
后面的principal 也是配置成你的环境中对应的principal

这里头有一个HiveDialect是因为我测试的时候,发现在spark jdbc生成查询语句的时候查询语句会是select 'database.column1',database.column2'....这样的查询sql,程序是会报错的。如果有这样的问题的话,需要注册一个自定义的Spark jdbc的方言

  • HiveDialect 代码类如下:
public class HiveDialect extends JdbcDialect {@Overridepublic boolean canHandle(String url) {return url.startsWith("jdbc:hive2") || url.contains("hive");}@Overridepublic String quoteIdentifier(String colName) {colName=colName.split("\\.")[1];return "`" + colName + "`";}
}

代码差不多写完了。最后使用maven打包上传到服务器上,包括那个hive-jaas.conf文件,还要额外上传 krb5.conf,xxx.keytab文件上去。
提交命令:

spark-submit \
--master yarn \
--deploy-mode cluster \
--driver-memory 2G \
--driver-cores 2 \
--num-executors 2 \
--executor-memory 2G \
--executor-cores 2 \
--files file:///opt/xxx.keytab,file:///opt/krb5.conf,file:///opt/hive-jaas.conf \
--conf "spark.driver.extraJavaOptions=-Djava.security.auth.login.config=hive-jaas.conf -Djavax.security.auth.useSubjectCredsOnly=false -Djava.security.krb5.conf=krb5.conf" \
--conf "spark.executor.extraJavaOptions=-Djava.security.auth.login.config=hive-jaas.conf -Djavax.security.auth.useSubjectCredsOnly=false -Djava.security.krb5.conf=krb5.conf" \
--conf spark.dynamicAllocation.enabled=false \
--conf spark.yarn.maxAppAttempts=1 \
--name spark_read_jdbc_with_hive \
--class com.example.App \
example-spark-read-hive-jdbc-1.0-SNAPSHOT.jar

注意里头的--files 参数和--conf的参数。
至此,整个教程结束。
最后到服务器上跑一把就好了。

总结

如果各位阅读过的大佬,有什么更好建议请在评论区中留言,谢谢大哥们!

http://www.lryc.cn/news/39084.html

相关文章:

  • 【Maven】项目中pom.xml坐标定义以及pom基本配置
  • Linux GCC 编译详解
  • 谁说程序员不懂了浪费,女神节安排
  • 上市公司管理层短视指标(2007-2020)
  • IDDPM 和 DDIM 对比
  • 链表OJ题(上)
  • 【题解】百度2021校招Web前端工程师笔试卷(第一批):单选题、多选题
  • 论文解读:SuperPoint: Self-Supervised Interest Point Detection and Description
  • 游戏玩的多,陪玩你了解的多吗?用Python来采集陪玩数据,看看行情和美照
  • React框架创建项目详细流程-项目的基本配置-项目的代码规范
  • nnunet入门之一 (CT图像分割)
  • 从0到1_批量下载视频
  • CNCF x Alibaba云原生技术公开课 第十二章 可观测性:监控与日志
  • C语言宏定义几个问题
  • 王道计算机组成原理课代表 - 考研计算机 第二章 数据的表示和运算 究极精华总结笔记
  • springboot集成mahout实现简单基于协同过滤算法的文章推荐算法
  • 自动驾驶介绍系列 ———— 看门狗
  • 今天打开个税APP,我直接人麻了!
  • javascript进阶学习笔记(含AJAX)
  • 今年没有金三银四
  • NFS - Network FileSystem网络文件系统的实现原理
  • C#【汇总篇】语法糖汇总
  • 高完整性系统工程(一): Safety Engineering, HAZOP Fault Tree Analysis
  • VGG16分类模型的网页界面(Flask,keras)
  • 互联网摸鱼日报(2023-03-12)
  • SpringBoot异常处理?用这两个就够啦!
  • mysql-查询重复数据的条数-count
  • 【Java枚举类】使用enum关键词定义枚举类
  • 第十四届蓝桥杯三月真题刷题训练——第 8 天
  • 鼎阳SDS2074X Plus免费“升级”(破解)备忘录