Flink ClickHouse 连接器数据写入源码深度解析
一、引言
在大数据处理的实际应用场景中,数据的高效存储与处理至关重要。Flink 作为一款强大的流式计算框架,能够对海量数据进行实时处理;而 ClickHouse 作为高性能的列式数据库,擅长处理大规模数据分析任务。Flink ClickHouse 连接器则将二者的优势结合起来,允许用户将 Flink 处理后的数据高效地写入 ClickHouse 数据库。下面我们将深入剖析其数据写入的源码实现,探究其背后的工作原理和设计思路。
二、整体架构概述
Flink ClickHouse 连接器的数据写入主要围绕 AbstractClickHouseOutputFormat
及其子类展开。AbstractClickHouseOutputFormat
作为抽象基类,定义了写入数据的基本流程和核心方法,为后续的具体实现提供了统一的框架。具体的写入逻辑由其子类 ClickHouseBatchOutputFormat
和 ClickHouseShardOutputFormat
实现,它们分别适用于不同的场景,以满足多样化的需求。
三、核心类及方法详细解析
1. ClickHouseConnectionOptions
// For testing.
@VisibleForTestingpublic ClickHouseConnectionOptions(String url) {this(url, null, null, null, null);}
这个构造函数是专门为测试目的而设计的。在测试环境中,为了简化测试用例的编写,我们可能只需要关注 URL 参数,而不需要设置其他复杂的配置。通过这个构造函数,我们可以方便地创建一个仅包含 URL 的 ClickHouseConnectionOptions
对象,从而更专注于对特定功能的测试。
2. AbstractClickHouseOutputFormat.Builder
AbstractClickHouseOutputFormat.Builder
类采用了建造者模式,用于构建 AbstractClickHouseOutputFormat
的实例。它提供了一系列的 withXXX
方法,允许用户通过链式调用的方式设置各种配置参数,最后通过 build
方法创建具体的输出格式实例。这种设计模式使得代码更加简洁易读,同时也提高了代码的可维护性。
public Builder withOptions(ClickHouseDmlOptions options) {this.options = options;return this;
}public Builder withConnectionProperties(Properties connectionProperties) {this.connectionProperties = connectionProperties;return this;
}
这些 withXXX
方法通过将传入的参数赋值给 Builder
类的成员变量,并返回 this
指针,实现了链式调用的效果。例如,用户可以这样使用:
AbstractClickHouseOutputFormat.Builder builder = new AbstractClickHouseOutputFormat.Builder();
builder.withOptions(options).withConnectionProperties(connectionProperties);
public AbstractClickHouseOutputFormat build() {Preconditions.checkNotNull(options);Preconditions.checkNotNull(fieldNames);Preconditions.checkNotNull(fieldTypes);Preconditions.checkNotNull(primaryKeys);Preconditions.checkNotNull(partitionKeys);if (primaryKeys.length > 0) {LOG.warn("If primary key is specified, connector will be in UPSERT mode.");LOG.warn("The data will be updated / deleted by the primary key, you will have significant performance loss.");}ClickHouseConnectionProvider connectionProvider = null;try {connectionProvider =new ClickHouseConnectionProvider(options, connectionProperties);DistributedEngineFull engineFullSchema =getDistributedEngineFull(connectionProvider.getOrCreateConnection(),options.getDatabaseName(),options.getTableName());boolean isDistributed = engineFullSchema != null;return isDistributed && options.isUseLocal()? createShardOutputFormat(connectionProvider.getOrCreateConnection(), engineFullSchema): createBatchOutputFormat();} catch (Exception exception) {throw new RuntimeException("Build ClickHouse output format failed.", exception);} finally {if (connectionProvider != null) {connectionProvider.closeConnections();}}
}
在 build
方法中,首先会对必要的参数进行非空检查,确保所有必需的配置都已正确设置。如果指定了主键,会发出警告,因为使用主键会使连接器进入 UPSERT 模式,这可能会导致性能下降。接着,会创建 ClickHouseConnectionProvider
对象,用于管理与 ClickHouse 数据库的连接。然后,尝试获取分布式引擎的完整信息,判断当前表是否为分布式表。根据是否为分布式表以及是否使用本地表,选择创建 ClickHouseShardOutputFormat
或 ClickHouseBatchOutputFormat
实例。最后,无论创建过程是否成功,都会关闭 ClickHouseConnectionProvider
以释放连接资源。
3. ClickHouseBatchOutputFormat 和 ClickHouseShardOutputFormat
ClickHouseBatchOutputFormat
用于批量写入数据,它将多条记录打包成一个批次,一次性发送到 ClickHouse 数据库,从而减少了与数据库的交互次数,提高了写入性能。而 ClickHouseShardOutputFormat
用于分片写入数据,适用于分布式表。在分布式环境中,数据会被分散存储在多个分片上,ClickHouseShardOutputFormat
会根据分片策略将数据正确地分发到相应的分片上。
private ClickHouseBatchOutputFormat createBatchOutputFormat() {return new ClickHouseBatchOutputFormat(new ClickHouseConnectionProvider(options, connectionProperties),fieldNames,primaryKeys,partitionKeys,logicalTypes,options);
}private ClickHouseShardOutputFormat createShardOutputFormat(ClickHouseConnection connection, DistributedEngineFull engineFullSchema)throws SQLException {SinkShardingStrategy shardingStrategy;List<FieldGetter> fieldGetters = null;if (options.isShardingUseTableDef()) {Expression shardingKey = engineFullSchema.getShardingKey();if (shardingKey instanceof FieldExpr) {shardingStrategy = SinkShardingStrategy.VALUE;FieldGetter fieldGetter =getFieldGetterOfShardingKey(((FieldExpr) shardingKey).getColumnName());fieldGetters = singletonList(fieldGetter);} else if (shardingKey instanceof FunctionExpr&& "rand()".equals(shardingKey.explain())) {shardingStrategy = SinkShardingStrategy.SHUFFLE;fieldGetters = emptyList();} else if (shardingKey instanceof FunctionExpr&& "javaHash".equals(((FunctionExpr) shardingKey).getFunctionName())&& ((FunctionExpr) shardingKey).getArguments().stream().allMatch(expression -> expression instanceof FieldExpr)) {shardingStrategy = SinkShardingStrategy.HASH;fieldGetters = parseFieldGetters((FunctionExpr) shardingKey);} else {throw new RuntimeException("Unsupported sharding key: " + shardingKey.explain());}} else {shardingStrategy = options.getShardingStrategy();if (shardingStrategy.shardingKeyNeeded) {fieldGetters =options.getShardingKey().stream().map(this::getFieldGetterOfShardingKey).collect(toList());}}ClusterSpec clusterSpec = getClusterSpec(connection, engineFullSchema.getCluster());return new ClickHouseShardOutputFormat(new ClickHouseConnectionProvider(options, connectionProperties),clusterSpec,engineFullSchema,fieldNames,primaryKeys,partitionKeys,logicalTypes,shardingStrategy.provider.apply(fieldGetters),options);
}
在 createShardOutputFormat
方法中,会根据配置选择不同的分片策略,如 VALUE
、SHUFFLE
或 HASH
。对于不同的分片策略,会解析相应的分片键,并创建 FieldGetter
列表。例如,如果分片策略为 VALUE
,会根据分片键的字段名创建一个 FieldGetter
;如果为 SHUFFLE
,则不需要 FieldGetter
;如果为 HASH
,会解析函数表达式中的字段名并创建相应的 FieldGetter
列表。最后,会获取集群信息,并创建 ClickHouseShardOutputFormat
实例。
四、写入流程总结
- 配置参数:使用
AbstractClickHouseOutputFormat.Builder
的withXXX
方法设置写入选项、连接属性、字段信息等参数。这些参数将决定数据写入的行为和方式。 - 构建输出格式:调用
build
方法,根据是否为分布式表以及是否使用本地表,选择创建ClickHouseBatchOutputFormat
或ClickHouseShardOutputFormat
实例。这个过程中会进行参数检查、连接创建和分片策略解析等操作。 - 数据写入:通过创建的输出格式实例,将数据批量或分片写入 ClickHouse 数据库。在写入过程中,会根据配置的批量大小和刷新间隔进行数据的缓存和批量提交,以提高写入性能。
- 资源管理:在写入完成后,关闭
ClickHouseConnectionProvider
以释放连接资源,避免资源泄漏。
五、优化建议
- 合理配置批量大小和刷新间隔:根据实际的业务场景和硬件资源,合理调整
sink.batch-size
和sink.flush-interval
参数,以平衡写入性能和内存使用。 - 避免使用主键进行 UPSERT 操作:如果不是必要情况,尽量避免指定主键,因为 UPSERT 操作会带来较大的性能开销。
- 选择合适的分片策略:根据数据的特点和分布情况,选择合适的分片策略,如
VALUE
、SHUFFLE
或HASH
,以确保数据均匀分布在各个分片上。
六、结论
通过对 Flink ClickHouse 连接器数据写入源码的深入分析,我们了解了其核心类和方法的实现细节,以及数据写入的整体流程。这有助于我们在实际应用中更好地配置和优化数据写入过程,提高写入性能和可靠性。同时,我们也可以根据具体的业务需求对源码进行扩展和定制,以满足更多复杂的场景。