当前位置: 首页 > news >正文

高级分布式系统-第15讲 分布式机器学习--联邦学习

高级分布式系统汇总:高级分布式系统目录汇总-CSDN博客

联邦学习

两种常见的架构:客户-服务器架构和对等网络架构

联邦学习在传统的分布式机器学习基础上的变化。

传统的分布式机器学习:在数据中心或计算集群中使用并行训练,因为有高速通信连接,所以通信开销相对很小,计算开销将会占主导地位。

联邦学习:通信需要依靠互联网,甚至是无线网络,所以通信代价是占主导地位的。

减少通信轮次的方法

增加并行度:加入更多的参与方,让它们在通信轮次间各自独立地进行模型训练。

增加每一个参与方中的计算:每一个参与方可以在两个通信轮次之间进行更复杂的计算。

最经典的联邦学习算法——FedAvg

1、服务器初始化训练模型,并随机选择所有客户端中的一部分将模型广播给被选择的用户。

2、被选择的客户端先将接受到的模型作为初始化模型,在利用本地数据进行训练,然后将结果上传给服务器。

3、服务器聚合收到的模型,然后再随机选择所有客户端中的一部分,将模型广播给被选择的用户。

4、重复2和3,直至模型收敛。

FedAvg存在的两个缺陷:

 设备异质性:不同的设备间的通信和计算能力是有差异的。在FedAvg中,被选中的客户端在本地都训练相同的epoch,虽然作者指出提升epoch可以有效减小通信成本,但较大的epoch下,可能会有很多设备无法按时完成训练。无论是直接drop掉这部分客户端的模型还是直接利用这部分未完成的模型来进行聚合,都将对最终模型的收敛造成不好的影响。

 数据异质性:不同设备中数据可能是非独立同分布的。如果数据是独立同分布的,那么本地模型训练较多的epoch会加快全局模型的收敛;如果不是独立同分布的,不同设备在利用非IID的本地数据进行训练并且训练轮数较大时,本地模型将会偏离初始的全局模型。

FedProx——FedAvg的改进

异步与同步联邦学习的结合

Resource-Efficient Federated Learning with Hierarchical Aggregation in Edge Computing(IEEE INFOCOM 2021)

联邦学习算法的优化分类方法

联邦学习涉及的应用研究

http://www.lryc.cn/news/281411.html

相关文章:

  • 小程序基础学习(事件处理)
  • 网络协议与攻击模拟_01winshark工具简介
  • 【linux学习笔记】网络
  • JUC-线程中断机制和LockSupport
  • 哈希表与哈希算法(Python系列30)
  • 『 C++ 』AVL树详解 ( 万字 )
  • Python下载安装pip方法与步骤_pip国内镜像
  • 自动化测试框架pytest系列之基础概念介绍(一)
  • 编码技巧:如何在Golang中高效解析和生成XML
  • 24校招,帆书测试开发工程师一面
  • Java 方法以及在计算机内部的调用问题
  • 【算法与数据结构】343、LeetCode整数拆分
  • 中级Python面试问题
  • Lede(OpenWrt)安装和双宽带叠加
  • HTML+JS + layer.js +qrcode.min.js 实现二维码弹窗
  • leetcode 142 环形链表II
  • 电阻表示方法和电路应用
  • 论文笔记(三十九)Learning Human-to-Robot Handovers from Point Clouds
  • 浅学Linux之旅 day2 Linux系统及系统安装介绍
  • 探索未来餐饮:构建创新连锁餐饮系统的技术之旅
  • Unity组件开发--AB包打包工具
  • 毕业设计:基于python微博舆情分析系统+可视化+Django框架 K-means聚类算法(源码)✅
  • xbox如何提升下载速度?
  • day13 滑动窗口最大值 前K个高频元素
  • Unity——VContainer的依赖注入
  • 【面试突击】Spring 面试实战
  • 【Linux】Ubuntu 22.04 上安装最新版 Nextcloud Hub 7 (28.0.1)
  • PHP项目如何自动化测试
  • WEB 3D技术 three.js 3D贺卡(1) 搭建基本项目环境
  • 短视频IP运营流程架构SOP模板PPT