当前位置: 首页 > article >正文

Flink2.0及Flink-operater在K8S上部署

1.查找镜像

dockerhub访问不了的可以访问这个查找镜像 https://docker.aityp.com/
在docker服务器上拉取flink镜像到本地

拉取镜像到你的docker服务器本地
docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/apache/flink:2.0.0-scala_2.12-java17
将docker服务器本地的镜像打上标签
docker tag swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/apache/flink:2.0.0-scala_2.12-java17 10.31.68.12:5000/flink:2.0.0-scala_2.12-java17
将打好标签的镜像推送到docker服务器
docker push 10.31.68.12:5000/flink:2.0.0-scala_2.12-java17

做完之后docker镜像如下,后面需要镜像的地方就写它

10.31.68.12:5000/flink:2.0.0-scala_2.12-java17

2.安装Flink Kubernetes Operator

官网:https://nightlies.apache.org/flink/flink-kubernetes-operator-docs-stable/docs/try-flink-kubernetes-operator/quick-start/
安装证书以启用webhook组件

kubectl create -f https://github.com/jetstack/cert-manager/releases/download/v1.8.2/cert-manager.yaml

如果yaml下载不成功,去 https://gitee.com/MiraculousWarmHeart/file-share/blob/master/flink/cert-manager.yaml复制,太长了就不贴这了,下到你的服务器上比如/data/flink/这个路径,执行

kubectl create -f  /data/flink/cert-manager.yaml

部署稳定Flink Kubernetes Operator,依次执行

helm repo add flink-operator-repo https://downloads.apache.org/flink/flink-kubernetes-operator-1.11.0/
helm install flink-kubernetes-operator flink-operator-repo/flink-kubernetes-operator

装完验证
执行 kubectl get pods 结果如下

NAME                                         READY   STATUS             RESTARTS         AGE
flink-kubernetes-operator-5c8975f64b-jdgc6   2/2     Running            0                81m

执行 helm list 结果如下

NAME                            NAMESPACE       REVISION        UPDATED                                 STATUS          CHART                                   APP VERSION
flink-kubernetes-operator       flink-prod      1               2025-05-28 15:08:00.683092663 +0800 CST deployed        flink-kubernetes-operator-1.11.0        1.11.0

3.存储卷及NFS配置(非必须,有配置好的就不用做)

3.1. 创建存储类(StorageClass)

kubectl create -f flink-storage.yaml 也可以在kuboard上创建

apiVersion: v1
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:name: flink-storage
provisioner: kubernetes.io/no-provisioner
volumeBindingMode: WaitForFirstConsumer
3.2. 创建 PV(PersistentVolume)

定义 NFS 类型的 PV,指定存储容量和访问模式:
kubectl create -f flink-trans-pv.yaml 也可以在kuboard上创建

apiVersion: v1
kind: PersistentVolume
metadata:name: flink-trans-pvnamespace: flink-prod
spec:capacity:storage: 20Gi     # 存储容量accessModes:- ReadWriteMany   # 支持多节点读写storageClassName: nfs-flinknfs:server: 10.31.68.22      # NFS 服务器 IPpath: "/data/flink"    # NFS 共享路径persistentVolumeReclaimPolicy: Retain  # 回收策略(保留数据)
3.3. 创建 PVC(PersistentVolumeClaim)

申领符合要求的 PV 资源:
kubectl create -f flink-trans-pvc.yaml 也可以在kuboard上创建

apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: flink-trans-pvcnamespace: flink-prod
spec:accessModes:- ReadWriteManyresources:requests:storage: 5Gi    # 实际申请的容量(需 ≤ PV 配置)storageClassName: nfs-flink

4.提交flink作业

4.1上传jar到nfs目录

scp ekrPatentDataProcessFlink-1.0.0.jar root@10.31.68.22:/flink/jobs/
或者本地直接上传到nfs目录

4.2 部署应用
kubectl create -f  flink-kafka-trans.yaml

flink-kafka-trans.yaml内容如下

apiVersion: flink.apache.org/v1beta1
kind: FlinkDeployment
metadata:name: flink-kafka-transnamespace: flink-prod
spec:image: 10.31.68.12:5000/flink:2.0.0-scala_2.12-java17flinkVersion: v2_0flinkConfiguration:taskmanager.numberOfTaskSlots: "2"serviceAccount: flinkpodTemplate:spec:hostAliases:- ip: "10.31.68.21"hostnames:- "k8smaster"containers:- name: flink-main-containervolumeMounts:- name: nfs-jar-volume      # 挂载 Jar 包存储mountPath: /data/flinkresources:requests:memory: "2048Mi"cpu: "1000m"limits:memory: "2048Mi"cpu: "1000m"volumes:- name: nfs-jar-volume          # 关联 PVCpersistentVolumeClaim:claimName: flink-trans-pvc   # 替换为你的 PVC 名称jobManager:resource:memory: "2048m"cpu: 1taskManager:resource:memory: "2048m"cpu: 1job:jarURI: local:///data/flink/jobs/ekrPatentDataProcessFlink-1.0.0.jar  # 容器内挂载路径entryClass: net.cnki.ekr.transfer.EkrFlinkTransApplicationargs: []parallelism: 2upgradeMode: stateless
4.3 查看日志
kubectl logs -f deploy/flink-kafka-trans

5.转发暴露端口(非必须,日志载k8s容器中可以看)

指定映射端口
kubectl port-forward deployment/flink-kafka-trans 28081:8081
不指定映射端口,由kubectl来选择和分配本地端口
kubectl port-forward deployment/flink-kafka-trans :8081
或者kubectl port-forward service/flink-kafka-trans 28081:8081

访问http://10.31.68.21:28081

6.要停止作业并删除FlinkDeployment

kubectl delete flinkdeployment/flink-kafka-trans
http://www.lryc.cn/news/2398116.html

相关文章:

  • PH热榜 | 2025-06-03
  • 论文略读: STREAMLINING REDUNDANT LAYERS TO COMPRESS LARGE LANGUAGE MODELS
  • mapbox高阶,生成并加载等时图
  • 深入剖析物联网边缘计算技术:架构、应用与挑战
  • DeepSeek眼中的文明印记:山海经
  • 在Mathematica中实现Newton-Raphson迭代
  • 【Ragflow】25.Ragflow-plus开发日志:excel文件解析新思路/公式解析适配
  • Python数据可视化科技图表绘制系列教程(一)
  • 移除3D对象的某些部分点云
  • 阿里云为何,一个邮箱绑定了两个账号
  • 高效视频倍速播放插件推荐
  • 无他相机:专业摄影,触手可及
  • 基于贝叶斯优化神经网络的光伏功率预测综述
  • 【C++11】折叠引用和完美转发
  • 数据结构:递归:自然数之和
  • 网易 - 灵犀办公文档
  • 【C++】模板与特化技术全面教程(claude sonnet 4)
  • ABAP设计模式之---“高内聚,低耦合(High Cohesion Low Coupling)”
  • RagFlow优化代码解析(一)
  • 【python与生活】用 Python 从视频中提取音轨:一个实用脚本的开发与应用
  • 深度强化学习赋能城市消防优化,中科院团队提出DRL新方法破解设施配置难题
  • 云原生周刊:探索 Gateway API v1.3.0
  • 008房屋租赁系统技术揭秘:构建智能租赁服务生态
  • Python训练打卡Day41
  • spring-boot-admin实现对微服务监控
  • Linux 权限管理入门:从基础到实践
  • Mycat的监控
  • Glide源码解析
  • 7.RV1126-OPENCV cvtColor 和 putText
  • Android 之 kotlin 语言学习笔记二(编码样式)