当前位置: 首页 > news >正文

LTV预估 | 多视角对比学习框架CMLTV

😄 cmltv的loss好多哟,花样好多哟~

文章目录

  • 1 精简总结
  • 2 背景&挑战
  • 3 方法
  • 4 实验

✅【arxiv-2023 华为 CMLTV】《Contrastive Multi-view Framework for Customer Lifetime Value Prediction》
论文链接: https://arxiv.org/pdf/2306.14400

1 精简总结

基于多视角的对比学习框架:该框架通过联合优化具有不同特征和优势的多种回归器来编码和融合全面的知识,通过互补的知识来提高模型的鲁棒性,并通过对比学习捕捉样本的相关性,以减轻对数据丰富性的依赖。

说白了,其实就是多任务loss+对比学习loss。包含了:分布基回归器: 使用概率模型(如对数正态和伽马分布)来近似真实的LTV分布。对数基回归器: 预测LTV的对数值,适用于神经网络处理。分类基回归器: 将回归任务转换为分类问题,然后从类别概率中重建实值分数。通过对比学习机制显式编码样本之间的相关性,同时构建二分类购买预测器和LTV回归器之间的有机连接,分类对比损失: 比较正样本和负样本的平均购买概率。回归对比损失: 规范化回归结果与预测购买概率的正相关性。

2 背景&挑战

  • 稀疏性:付费数据不平衡,大多数用户不付费。
  • 目前的pltv方法采用单视角建模存在准确度低和知识提取存在偏差的问题。

3 方法

在这里插入图片描述

首先,过一个basic feature representation model(可以是MLP/DeepFM/DCN等)来得到基础的交互特征h,再输入给后面的各个学习模块。

【付费概率预测模型】
特征h过mlp+sigmoid,得到付费概率,采用二分类交叉熵loss。
在这里插入图片描述


【分布基回归器】
使用概率模型(推荐对数正态和伽马分布)来近似真实的LTV分布,论文采用gamma分布,对应参数θ包括:形状参数alpha、速率参数lam(尺度参数beta的倒数)通过mlp+relu学习,每个样本会预测一个θ。概率密度函数则由θ决定。

  • 注:因gamma分布中,alpha、lam均要求>0,所以以下公式中,log(1+exp())为了确保输出的非负性、提高数值稳定性、保持函数的平滑性以及利用其凸性特征。这些特性使得它在神经网络的设计和训练中非常有用。
  • loss为概率密度函数的负对数似然,也就是负的最大似然估计。
  • pltv则等于gamma分布的期望,即pltv=alpha/lam

在这里插入图片描述


【对数基回归器】
该回归器就很普通了。LTV原始值有可能会很大,但是取对数后差异小,更适合神经网络来处理。该网络由mlp+relu构成。损失函数为mse_loss。

  • pltv=该回归器的输出
    在这里插入图片描述

【分类基回归器】
将回归任务转换为分类问题,然后从类别概率中重建的值作为pltv。由于 LTV 分布通常是长尾的,因此可以使用对数运算将整个范围分为几个分类桶缓解长尾问题。为保留更细粒度的数值信息,论文使用以2为底的对数而不是更大的底数进行分箱。

  • ltv label对应的类别c为,具体实现时,c可以做完log后做下clip处理,限制下上限值:
    在这里插入图片描述
    1+y也是为了确保非负

  • 类别预测概率为:
    在这里插入图片描述

  • loss则为多分类交叉熵损失函数咯:
    在这里插入图片描述

  • pltv则为根据预测的各类别的概率重建的值:
    在这里插入图片描述

解释一下下式吧:每个区间的中心作为某类别的值,聚合各区间的值*对应概率即为预测值。之所以这里的区间上下限为什么是这样子,是因为上面用了log1p:
在这里插入图片描述

【混合对比学习】
额,别看图里这么复杂,其实原理很简单,这个操作是在batch内样本间进行的,以我了解其实大部分对比学习都是在batch内做的吧。通过对比学习机制显式编码样本之间的相关性,以减轻对数据丰富性的依赖。同时构建二分类购买预测器和LTV回归器之间的有机连接。
在这里插入图片描述

分类对比损失:
比较正样本和负样本的平均购买概率。通常假定正样本的购买概率大于负样本。然而直接比较每对样本是不可行的,因为噪声样本可能会误导模型生成低质量的对比组合,这对模型优化是不利的。但平均而言正样本应该比负样本具有更高的购买倾向。
在这里插入图片描述


回归对比损失:
假设具有更高LTV的用户可能也具有更高的购买概率。提出了一种回归对比学习方法来规范回归结果,使其与预测的购买概率正相关。通过这种方式,同一个batch中不同样本之间的相关性被明确地编码到模型学习中,同时分类和回归部分通过这些损失自然地连接起来,以便它们编码的知识可以交换和共享。前面介绍的3种回归器都采用如下loss公式:
在这里插入图片描述

【汇总:多任务训练与预测】
训练阶段:也就是将上面介绍的各种loss相加了:
1个付费概率分类损失、3个回归损失、1个分类对比学习损失、3个回归对比学习损失:
在这里插入图片描述
注:付费概率分类损失、分类对比学习损失是在所有样本上计算的。而回归损失只在正样本上计算,因为严重的付费/不付费数据不平衡问题回损害精度。

预测阶段,也就是上面介绍的各pltv相加,受ZILN启发吧,最终pltv也为付费概率与各pltv的相乘,权重alpha与beta均设为0.3,通过实验确定。非可学习参数,论文说作为可学习参数效果不好:
在这里插入图片描述

  

4 实验

指标基本均有提升
在这里插入图片描述

  • 在离线与在线实验中验证了模型的有效性(对比了其他baselines),在线实验中,支付金额相比对照组提升32.26%,推理延迟增加9%(可容忍)。这一显著改善主要是由于低消费和中消费水平用户支付金额的增加(高消费用户贡献的收入与基线和我们的方法相似)。这一发现表明,我们的方法在提高广泛用户的活跃性方面具有关键优势,而不仅仅是针对高支出用户。
  • cmltv已经在线部署,为数亿移动用户提供服务,并改善他们的体验。
    在这里插入图片描述

缺点:
论文总结了如下缺点:

  • 由于付费数据的稀疏,导致部分预测样本的付费概率很低,从而预测的pltv不够准确。
  • 模型很难预测高pltv,因为这类样本非常少。
  • 对比学习损失,需要一个很大的batch_size,否则单个batch内正样本太少了,loss算出来的nan,不稳定。
  • 对于冷启用户/游戏,很难预测准确的pltv。
http://www.lryc.cn/news/528335.html

相关文章:

  • llama.cpp LLM_ARCH_DEEPSEEK and LLM_ARCH_DEEPSEEK2
  • C语言自定义数据类型详解(二)——结构体类型(下)
  • DeepSeek学术写作测评第二弹:数据分析、图表解读,效果怎么样?
  • 深入理解 Python 中的 `__all__`:控制模块的公共接口
  • 虚幻基础07:蓝图接口
  • 数据结构---哈希表
  • DataWhale组队学习 leetCode task4
  • 【ESP32】ESP-IDF开发 | WiFi开发 | UDP用户数据报协议 + UDP客户端和服务器例程
  • 【PyQt5】数据库连接失败: Driver not loaded Driver not loaded
  • Unity游戏(Assault空对地打击)开发(1) 创建项目和选择插件
  • Rust:如何动态调用字符串定义的 Rhai 函数?
  • A星算法两元障碍物矩阵转化为rrt算法四元障碍物矩阵
  • 【C++】设计模式详解:单例模式
  • 单细胞分析基础-第一节 数据质控、降维聚类
  • 多项日常使用测试,带你了解如何选择AI工具 Deepseek VS ChatGpt VS Claude
  • 每日一题-判断是否是平衡二叉树
  • FLTK - FLTK1.4.1 - 搭建模板,将FLTK自带的实现搬过来做实验
  • 《多阶段渐进式图像修复》学习笔记
  • AWScurl笔记
  • QT使用eigen
  • 揭示Baklib企业内容管理系统CMS的核心功能与应用价值
  • 如何跨互联网adb连接到远程手机-蓝牙电话集中维护
  • flume和kafka整合 flume和kafka为什么一起用?
  • java.util.Random类(详细案例拆解)(已完结)
  • Java后端之AOP
  • 【信息系统项目管理师-选择真题】2008上半年综合知识答案和详解
  • go到底是什么意思:对go的猜测或断言
  • 零刻SER7接口及配置跑分
  • 【Java基础-41.5】深入解析Java异常链:构建清晰的错误追踪体系
  • 【Python实现机器遗忘算法】复现2023年TNNLS期刊算法UNSIR