《Dual Prompt Personalized Federated Learning in Foundation Models》——论文阅读
面向大规模预训练模型(ViT、BERT)的千万级设备场景,用“双提示(Dual Prompt)”机制实现高效、可扩展的个性化联邦学习(PFL)
1.研究背景
传统联邦学习在客户端数据异构(非独立同分布)场景下表现不佳,全局模型难以适配各客户端的独特数据分布。PFL 旨在为每个客户端生成个性化模型,但现有方法存在局限:当客户端本地数据有限时,模型训练不充分;基础模型(如 CLIP)虽具备强特征提取能力,但在联邦学习中应用较少,且缺乏动态集成新客户端的机制。
2.本文方法
提出了DP^2FL框架。其核心是通过 “双提示设计” 和 “自适应聚合策略”,结合全局任务信息与客户端本地数据特征,同时支持新数据源推理和新客户端无缝集成。
双提示结构
• 任务提示:捕获联邦学习的全局任务信息(如跨客户端的共性语义知识),由所有客户端共享,通过服务器聚合更新。
• 数据提示:每个客户端独有,用于建模本地数据分布的独特特征,通过客户端本地聚合更新。保存每个客户端特有的数据特征。全局模型自适应
构建一个全局模型,通过聚合所有客户端的数据提示生成 “全局数据提示”,与全局任务提示共同组成全局模型。该模型支持:
- 对未参与训练的新数据源直接推理;
- 新客户端加入时无需从头训练,可基于全局模型快速初始化并适配本地数据。
传统 PFL 是“模型切块训练”,DualPrompt-PFL 是“冻结大模型 + 极轻提示微调”,在参数量、通信量、本地算力需求上均下降 1–3 个数量级,且天然适配大模型与跨设备场景。
3.步骤
① 服务器定义模型架构、训练轮次等参数,初始化全局任务提示和全局数据提示
②各客户端上传少量验证数据集,服务器计算初始损失,用于指导后续聚合。
③本地训练:客户端基于本地数据微调任务提示和数据提示,通过损失函数优化参数。客户端上传本地数据提示和全局任务提示之间的距离。
④全局聚合:中央服务器基于各客户端在所有验证集上的损失,计算权重并聚合任务提示和全局数据提示
⑥加入新客户端:新客户端上传验证集,服务器分发最新全局模型用于初始化。新客户端仅需少量本地训练即可适配自身数据,同时其贡献被其他客户端整合,实现无缝融入。
模型不动,服务器下发任务提示,客户端上传数据提示。