当前位置: 首页 > article >正文

Paimon和Hive相集成

Flink版本1.17

Hive版本3.1.3

1、Paimon集成Hive

将paimon-hive-connector.jar复制到auxlib中,下载链接Index of /groups/snapshots/org/apache/https://repository.apache.org/snapshots/org/apache/paimon/

通过flink进入查看paimon

/opt/softwares/flink-1.17.0/bin/sql-client.sh -s yarn-session -i /opt/softwares/flink-1.17.0/conf/sql-client-init.sql

 sql-client-init.sql

CREATE CATALOG fs_catalog WITH ('type' = 'paimon','warehouse' = 'hdfs://node154:8020/paimon/fs'
);CREATE CATALOG hive_catalog WITH ('type' = 'paimon','metastore' = 'hive','uri' = 'thrift://node154:9083','hive-conf-dir' = '/opt/softwares/hive/conf','warehouse' = 'hdfs://node154:8020/paimon/hive'
);USE CATALOG hive_catalog;SET 'sql-client.execution.result-mode' = 'tableau';

注意,加载配置文件进入flink之后,虽然说使用的是hive_catalog,但是使用的database是default的,需要使用test,否则找不到表欧。

 表ws_t;和名为test的database都是之前是在flink中操作paimon在hive_catalog 创建出来的,步骤看

paimon中批和流查看过去的快照的数据及变动的数据-CSDN博客文章浏览阅读258次,点赞10次,收藏4次。paimon中批和流查看过去的快照的数据及变动的数据 https://blog.csdn.net/yyf960126/article/details/147930584?spm=1001.2014.3001.5502

进入hive

hive中
use test;
SELECT * FROM ws_t;

补充知识点,hive中使用【test】database来创建hive表和paimon中使用使用hive_catalog中【test】的database创建出的paimon表存储位置不同,建表语句也能看出来。但是都能在hive中【test】的database查到。

hive查看test库中的表为

orders       paimon表
ws1          paimon表
ws_t         paimon表
test_hive    hive表
yyf          hive表

文件存储为如图:

---------------paimon表---------------------
CREATE TABLE `ws_t`(`id` int COMMENT 'from deserializer', `ts` bigint COMMENT 'from deserializer', `vc` int COMMENT 'from deserializer')
ROW FORMAT SERDE 'org.apache.paimon.hive.PaimonSerDe' 
STORED BY 'org.apache.paimon.hive.PaimonStorageHandler' LOCATION'hdfs://node154:8020/paimon/hive/test.db/ws_t'
TBLPROPERTIES ('transient_lastDdlTime'='1747128118')
-----------------hive表------------------
CREATE TABLE `yyf`(`a` int)
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe' 
STORED AS INPUTFORMAT 'org.apache.hadoop.mapred.TextInputFormat' 
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION'hdfs://node154:8020/user/hive/warehouse/test.db/yyf'
TBLPROPERTIES ('bucketing_version'='2', 'transient_lastDdlTime'='1747066788')

 在hive中创建paimon表

--使用hive_catalog的存储路径
SET hive.metastore.warehouse.dir=hdfs://node154:8020/paimon/hive;
--数据处理按照paimon来
CREATE TABLE test_h(a INT COMMENT 'The a field',b STRING COMMENT 'The b field'
)
STORED BY 'org.apache.paimon.hive.PaimonStorageHandler'

 

 通过创建hive外部表来使用现有的paimon表

字段随着paimon源表的修改而自动变动,paimon表的特性

CREATE EXTERNAL TABLE test.paimon_ex_ws_t
STORED BY 'org.apache.paimon.hive.PaimonStorageHandler'
LOCATION 'hdfs://node154:8020/paimon/hive/test.db/ws_t';--或将路径写在表属性中:
CREATE EXTERNAL TABLE paimon_ex_ws_t
STORED BY 'org.apache.paimon.hive.PaimonStorageHandler'
TBLPROPERTIES ('paimon_location' ='hdfs://node154:8020/paimon/hive/test.db/ws_t'
);

http://www.lryc.cn/news/2386357.html

相关文章:

  • 精益数据分析(74/126):从愿景到落地的精益开发路径——Rally的全流程管理实践
  • HarmonyOS 鸿蒙应用开发进阶:深入理解鸿蒙跨设备互通机制
  • Vue.js教学第十五章:深入解析Webpack与Vue项目实战
  • 深入浅出 Python Testcontainers:用容器优雅地编写集成测试
  • Cmake编译gflags过程记录和在QT中测试
  • 项目中Warmup耗时高该如何操作处理
  • 制作一款打飞机游戏53:子弹样式
  • Windows磁盘无法格式化及磁盘管理
  • 每日算法 -【Swift 算法】Z 字形变换(Zigzag Conversion)详解与实现
  • Docker运维-5.3 配置私有仓库(Harbor)
  • day 36
  • mybatis-plus使用记录
  • Mcu_Bsdiff_Upgrade
  • 有监督学习——决策树
  • 华为OD机试真题——启动多任务排序(2025B卷:200分)Java/python/JavaScript/C/C++/GO最佳实现
  • AWS云与第三方通信最佳实践:安全、高效的数据交互方案
  • Ubuntu Server 24 设置 WiFi 网络的方案
  • 【redis】redis和hiredis的基本使用
  • 大模型时代,Python 近红外光谱与 Transformer 模型:学习的必要性探究
  • 产品经理常用术语大全
  • 梯度优化提示词:精准引导AI分类
  • AUTOSAR 运行时环境 (RTE)
  • Bolt.new:重塑 Web 开发格局的 AI 利器
  • RK3588 RKNN ResNet50推理测试
  • SQLMesh 宏操作符详解:提升 SQL 查询的灵活性与效率
  • leetcode513.找树左下角的值:递归深度优先搜索中的最左节点追踪之道
  • 基于Flink的数据中台管理平台
  • AI-Ready TapData:如何基于 MCP 协构建企业级 AI 实时数据中枢?(含教程)
  • Spring Boot 登录实现:JWT 与 Session 全面对比与实战讲解
  • 【HTML-5】HTML 实体:完整指南与最佳实践