当前位置: 首页 > news >正文

反欺诈业务 Elasticsearch 分页与导出问题分析及解决方案

我是如何在反欺诈系统中使用 Redis 缓存客户年龄信息,提升导出性能的(实战经验总结)


一、背景

我在开发一个反欺诈系统的开户流水导出功能时,需要导出约 7w 条开户流水数据,每条数据包含客户号、开户日期,并且要补充客户年龄字段。

年龄字段来源于客户基本信息表,数据存储在 Elasticsearch 中,字段是客户出生日期。

开发初期,我们采用一次性查询客户号的方式,但上线后发现:

大部分年龄字段为空,数据异常!

排查发现:一次性传入 7w 个客户号查询 ES,由于 index.max_result_window 默认限制为 10000,只返回了前 1w 条数据。

于是我们做了如下优化:

  • 分批查询客户信息(每批 2000 条)
  • 使用 filter 查询,不记分
  • 只查询 custNo 和 birthDate 字段
  • 使用 Java 8 并行流加快查询速度
  • 引入 Redis 缓存客户出生日期信息,设置过期时间

二、我遇到的问题

1. 客户信息查询效率低

  • 每次导出都要重新查询 ES,性能差
  • 客户出生日期是静态数据,重复查询浪费资源

2. 一次性查询客户号数据不完整

  • 一次性传入 7w 个客户号,ES 默认最多返回 1w 条数据
  • 导致年龄字段缺失,数据异常

3. 未使用缓存,重复查询浪费资源

  • 客户出生日期基本不变,每次导出都重新查 ES,浪费资源

三、我是怎么做的?

我最终采用了如下方案进行优化:

优化项说明
分批查询每次查 2000 个客户号,规避 ES 的 max_result_window 限制
使用 filter 查询不记分,提升查询效率
只查 custNo 和 birthDate 字段减少数据传输量
使用 Java 8 并行流提升分批查询效率
引入 Redis 缓存客户出生日期减少重复查询
设置缓存过期时间(如 1 天)保证数据新鲜度

四、具体实现(Java + Elasticsearch + Redis)

✅ Redis 缓存工具类(使用 Spring Data Redis):

@Component
public class RedisCache {@Autowiredprivate RedisTemplate<String, String> redisTemplate;// 设置缓存,带过期时间public void setWithExpire(String key, String value, long timeout, TimeUnit unit) {redisTemplate.opsForValue().set(key, value, timeout, unit);}// 获取缓存public String get(String key) {return redisTemplate.opsForValue().get(key);}// 批量获取缓存public List<String> multiGet(List<String> keys) {return redisTemplate.opsForValue().multiGet(keys);}
}

✅ 分批查询客户信息 + 并行流 + Redis 缓存:

@Service
public class CustomerInfoService {@Autowiredprivate RestHighLevelClient esClient;@Autowiredprivate RedisCache redisCache;private static final int BATCH_SIZE = 2000;private static final String CACHE_KEY_PREFIX = "cust_birthdate_";public Map<String, String> getCustomerBirthDates(List<String> customerNos) throws IOException {Map<String, String> result = new HashMap<>();// 去重客户号List<String> uniqueCustNos = customerNos.stream().distinct().collect(Collectors.toList());// 先查 Redis 缓存List<String> cacheKeys = uniqueCustNos.stream().map(custNo -> CACHE_KEY_PREFIX + custNo).collect(Collectors.toList());List<String> cachedValues = redisCache.multiGet(cacheKeys);Map<String, String> cachedMap = new HashMap<>();for (int i = 0; i < uniqueCustNos.size(); i++) {String custNo = uniqueCustNos.get(i);String cachedValue = cachedValues.get(i);if (cachedValue != null) {cachedMap.put(custNo, cachedValue);}}// 筛出未缓存的客户号List<String> notCached = uniqueCustNos.stream().filter(custNo -> !cachedMap.containsKey(custNo)).collect(Collectors.toList());// 分批查询 ESList<List<String>> batches = Lists.partition(notCached, BATCH_SIZE);batches.parallelStream().forEach(batch -> {try {SearchRequest searchRequest = new SearchRequest("customer_info_index");SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();sourceBuilder.query(QueryBuilders.boolQuery().filter(QueryBuilders.termsQuery("custNo", batch)));sourceBuilder.fetchSource(new String[]{"custNo", "birthDate"}, null);sourceBuilder.size(batch.size());searchRequest.source(sourceBuilder);SearchResponse response = esClient.search(searchRequest, RequestOptions.DEFAULT);for (SearchHit hit : response.getHits()) {Map<String, Object> source = hit.getSourceAsMap();String custNo = source.get("custNo").toString();String birthDate = source.get("birthDate").toString();String cacheKey = CACHE_KEY_PREFIX + custNo;// 放入结果 & 缓存result.put(custNo, birthDate);redisCache.setWithExpire(cacheKey, birthDate, 1, TimeUnit.DAYS);}} catch (IOException e) {e.printStackTrace();}});// 合并缓存和新查的数据result.putAll(cachedMap);return result;}
}

✅ 补充年龄字段逻辑:

public List<OpenAccountRecord> enrichWithAge(List<OpenAccountRecord> records) throws IOException {List<String> customerNos = records.stream().map(OpenAccountRecord::getCustNo).distinct().collect(Collectors.toList());// 查询客户出生日期(优先 Redis 缓存,未命中则查 ES)Map<String, String> birthDateMap = getCustomerBirthDates(customerNos);// 补充年龄字段for (OpenAccountRecord record : records) {String custNo = record.getCustNo();String birthDate = birthDateMap.get(custNo);if (birthDate != null) {int age = calculateAge(birthDate);record.setAge(age);}}return records;
}private int calculateAge(String birthDateStr) {LocalDate birthDate = LocalDate.parse(birthDateStr, DateTimeFormatter.ofPattern("yyyy-MM-dd"));LocalDate now = LocalDate.now();return now.getYear() - birthDate.getYear();
}

五、优化亮点总结

优化点说明
分批查询避免一次性查询超过 ES 限制
filter 查询不记分,提升性能
只查必要字段减少数据传输
并行流处理提升查询效率
Redis 缓存客户出生日期减少重复查询,支持分布式
设置缓存过期时间(1 天)保证数据新鲜度
构建映射表便于字段补充,代码结构清晰

六、遇到的难点与思考

🔍 难点一:分页没问题,导出才暴露问题

  • 分页只查 10 条客户号,ES 限制未触发
  • 导出时一次性查 7w 条客户号,才暴露数据截断问题

🔍 难点二:ES 默认限制不报错,只截断

  • ES 不会抛异常,只是返回前 1w 条数据
  • 容易造成数据丢失而不自知

🔍 难点三:缓存过期时间如何设置?

  • 客户出生日期不变,年龄每年更新一次
  • 设置缓存过期时间为 1 天,足够使用,且数据不会太旧

七、总结

这次优化让我深刻认识到:

缓存不是万能的,但合理使用缓存可以极大提升系统性能。

通过这次优化,我们解决了:

  • 年龄字段缺失问题
  • 数据完整性保障
  • 查询性能提升
  • 减少 ES 调用次数
  • 支持多节点部署下的缓存共享
  • 代码结构更清晰

如果你也在开发反欺诈、风控、数据报表等系统,遇到类似的 ES 分页、导出、数据关联问题,希望这篇文章能给你带来一些启发和参考。

http://www.lryc.cn/news/594218.html

相关文章:

  • 子查询转连接查询
  • [AI8051U入门第七步]软件IIC驱动SHT21/(SHT20/HTU21D同时适用)温湿度传感器
  • CarbonTracker-CH₄:全球甲烷追踪系统简介
  • 论文笔记: Holistic Semantic Representation for Navigational Trajectory Generation
  • MySQL学习----Explain
  • 搭建大模型
  • 安卓 Termux.apk
  • SaTokenException: 未能获取对应StpLogic 问题解决
  • 【Lua】多脚本引用
  • cmake语法学习笔记
  • SpringBoot3集成MapstructPlus
  • JMeter连接数据库
  • 数字图像处理(四:图像如果当作矩阵,那加减乘除处理了矩阵,那图像咋变):从LED冬奥会、奥运会及春晚等等大屏,到手机小屏,快来挖一挖里面都有什么
  • FFmpeg 图片处理
  • Hadoop小文件合并技术深度解析:HAR文件归档、存储代价与索引结构
  • 7-大语言模型—指令理解:指令微调训练+模型微调
  • client-go: k8s选主
  • 【Settlement】P1:整理GH中的矩形GRID角点到EXCEL中
  • macOs上交叉编译ffmpeg及安装ffmpeg工具
  • Facebook 开源多季节性时间序列数据预测工具:Prophet 饱和预测 Saturating Forecasts
  • lvs调度算法(10种)
  • DOM型XSS破坏
  • MySQL锁(二) 共享锁与互斥锁
  • pages.json页面路由中,globalStyle的各个属性
  • 两个数据表的故事:第 1 部分
  • 测试中的bug
  • LVS-----TUN模式配置
  • 20250720-6-Kubernetes 调度-nodeName字段,DaemonS_笔记
  • Pinia 核心知识详解:Vue3 新一代状态管理指南
  • spring-cloud使用