当前位置: 首页 > news >正文

DolphinScheduler 如何高效调度 AnalyticDB on Spark 作业?

DolphinScheduler是一个分布式易扩展的可视化DAG工作流任务调度开源系统,能高效地执行和管理大数据流程。用户可以在DolphinScheduler Web界面轻松创建、编辑和调度云原生数据仓库 AnalyticDB MySQL 版的Spark作业。

前提条件

  • AnalyticDB for MySQL集群的产品系列为企业版、基础版或湖仓版。

  • AnalyticDB for MySQL集群中已创建Job型资源组或Spark引擎的Interactive型资源组。

  • 已安装JDK,且JDK的版本为1.8及以上版本。

  • 已安装DolphinScheduler。

  • 已将运行DolphinScheduler的服务器IP地址添加至AnalyticDB for MySQL集群的白名单中。

调度Spark SQL作业

AnalyticDB for MySQL支持使用批处理和交互式两种方法执行Spark SQL。选择的执行方式不同,调度的操作步骤也有所不同。详细步骤如下:

批处理

  1. 安装Spark-Submit命令行工具并配置相关参数。

说明:您只需要配置keyId、secretId、regionId、clusterId和rgName这些必填参数。

  1. 创建项目。

    1. 访问DolphinScheduler Web界面,在顶部导航栏单击项目管理。

    2. 单击创建项目。

    3. 在弹出的创建项目对话框中配置项目名称、所属用户等参数。

  2. 创建工作流。

    • 单击已创建的项目名称,进入工作流定义页面。

    • 单击创建工作流,进入工作流DAG编辑页面。

    • 在页面左侧选择SHELL,并将其拖拽到右侧空白画布中。

    • 在弹出的当前节点设置对话框中配置如下参数:

    • 单击确认。

    • 单击页面右上角保存,在弹出的基本信息对话框中配置工作流名称等参数,单击确定。

说明:其他参数说明请参见DolphinScheduler任务参数。

  1. 运行工作流。
  • 单击工作流操作列的按钮,上线工作流。

  • 单击工作流操作列的按钮。

  • 在弹出的启动前请先设置参数对话框中,配置对应参数。

  • 单击确定,运行工作流。

  1. 查看工作流详细信息。
  • 在左侧导航栏单击任务实例。

  • 在操作列,单击按钮,查看工作流执行结果和日志信息。

交互式

  1. 获取Spark Interactive型资源组的连接地址。

    1. 登录云原生数据仓库AnalyticDB MySQL控制台,在左上角选择集群所在地域。在左侧导航栏,单击集群列表,在企业版、基础版或湖仓版页签下,单击目标集群ID。

    2. 在左侧导航栏,单击集群管理 > 资源管理,单击资源组管理页签。

    3. 单击对应资源组操作列的详情,查看内网连接地址和公网连接地址。您可单击端口号括号内的image按钮,复制连接地址。

    以下两种情况,您需要单击公网地址后的申请网络,手动申请公网连接地址。

    • 提交Spark SQL作业的客户端工具部署在本地。

    • 提交Spark SQL作业的客户端工具部署在ECS上,且ECS与AnalyticDB for MySQL不属于同一VPC。

  2. 创建数据源。

    1. 访问DolphinScheduler Web界面,在顶部导航栏单击数据源中心。

    2. 单击创建数据源,选择数据源类型为Spark。

    3. 在弹出的创建数据源对话框中配置如下参数:

    4. 单击测试连接,测试成功后,单击确定。

说明:其他参数为选填参数,详情请参见MySQL数据源。

  1. 创建项目。

    1. 访问DolphinScheduler Web界面,在顶部导航栏单击项目管理。

    2. 单击创建项目。

    3. 在弹出的创建项目对话框中配置项目名称、所属用户等参数。

  2. 创建工作流。

    1. 单击已创建的项目名称,进入工作流定义页面。

    2. 单击创建工作流,进入工作流DAG编辑页面。

    3. 在页面左侧选择SQL,并将其拖拽到右侧空白画布中。

    4. 在弹出的当前节点设置对话框中配置如下参数:

    5. 单击确认。

    6. 单击页面右上角保存,在弹出的基本信息对话框中配置工作流名称等参数,单击确定。

  3. 运行工作流。

    1. 单击工作流操作列的按钮,上线工作流。

    2. 单击工作流操作列的按钮。

    3. 在弹出的启动前请先设置参数对话框中,配置对应参数。

    4. 单击确定,运行工作流。

  4. 查看工作流详细信息。

    1. 在左侧导航栏单击任务实例。

    2. 在操作列,单击按钮,查看工作流执行结果和日志信息。

调度Spark Jar作业

  1. 安装Spark-Submit命令行工具并配置相关参数。

说明:您只需要配置keyId、secretId、regionId、clusterId和rgName这些必填参数。如果您的Spark Jar包在本地,还需要配置ossUploadPath等OSS相关参数。

  1. 创建项目。

    1. 访问DolphinScheduler Web界面,在顶部导航栏单击项目管理。

    2. 单击创建项目。

    3. 在弹出的创建项目对话框中配置项目名称、所属用户等参数。

  2. 创建工作流。

    1. 单击已创建的项目名称,进入工作流定义页面。

    2. 单击创建工作流,进入工作流DAG编辑页面。

    3. 在页面左侧选择SHELL,并将其拖拽到右侧空白画布中。

    4. 在弹出的当前节点设置对话框中配置如下参数:

    5. 单击确认。

    6. 单击页面右上角保存,在弹出的基本信息对话框中配置工作流名称等参数,单击确定。

说明:其他参数说明请参见DolphinScheduler任务参数。

  1. 运行工作流。

    1. 单击工作流操作列的按钮,上线工作流。

    2. 单击工作流操作列的按钮。

    3. 在弹出的启动前请先设置参数对话框中,配置对应参数。

    4. 单击确定,运行工作流。

  2. 查看工作流详细信息。

    1. 在左侧导航栏单击任务实例。

    2. 在操作列,单击按钮,查看工作流执行结果和日志信息。

http://www.lryc.cn/news/591602.html

相关文章:

  • Redis学习-02安装Redis(Ubuntu版本)、开启远程连接
  • leetcode 206.反转链表(c++详细解释)
  • LeetCode--48.旋转图像
  • ACOUSLIC-AI挑战报告:基于低收入国家盲扫超声数据的胎儿腹围测量|文献速递-医学影像算法文献分享
  • Leetcode 03 java
  • 记录Leetcode中的报错问题
  • Java数组补充v2
  • sqli-labs靶场通关笔记:第25-26a关 and、or、空格和注释符多重过滤
  • 融智兴科技: RFID超高频洗涤标签解析
  • 代码随想录算法训练营第二十三天
  • Java 中的类和对象
  • 数据结构自学Day9: 二叉树的遍历
  • Git简介与特点:从Linux到分布式版本控制的革命
  • redis中间件
  • git merge-base查看某个分支从哪里拉出来的、主main分支上的某个时间之后某人的提交合并到特定分支(使用 cherry-pick 的场景)
  • 【MySQL事务】事务的隔离级别
  • 逆向破解京东评论加密参数|Python动态Cookie解决方案
  • 开源Agent平台Dify源码剖析系列(五)核心模块core/agent之CotChatAgentRunner
  • 文字转图片的字符画生成工具
  • 今日行情明日机会——20250717
  • Web3.0 实战项目、简历打造、精准投递+面试准备
  • springboot 整合spring-kafka客户端:SASL_SSL+PLAINTEXT方式
  • 流式数据处理实战:用状态机 + scan 优雅过滤 AI 响应中的 `<think>` 标签
  • 面试高频题 力扣 200.岛屿数量 洪水灌溉 深度优先遍历 暴力搜索 C++解题思路 每日一题
  • 【Lua】题目小练1
  • 50天50个小项目 (Vue3 + Tailwindcss V4) ✨ | GoodCheapFast(Good - Cheap - Fast三选二开关)
  • yolo8+ASR+NLP+TTS(视觉语音助手)
  • RK3566开发板调试记录:从编译配置到功能优化
  • 杰理AC70NN项目用脚本自定义添加.mk文件,直接链接进主Makefile脚本编译
  • 微服务的编程测评系统3-加密-日志-apifox-nacos-全局异常