当前位置: 首页 > news >正文

【机器学习】并行计算(parallel computation)Part2

Asynchronous Parallel Gradient Descent Using Parameter Server 用Parameter Server实现异步并行梯度下降 

        Parameter Server这种编程模型可以实现异步并行梯度下降,架构采用的是Client-Server,通信方式是Message-passing,同步方式是异步的(Asynchronous)。Ray是一个开源软件系统,支持Parameter Server。

        同步算法:算法加速比会很低,时间会大量浪费在等待上。

        异步算法: Worker不会空转,整个系统效率会很高。

         异步算法可以这样进行实现:在worker上利用本地数据计算梯度,然后将计算好的梯度发送给server,并接受更新后的梯度。

         实际上,异步算法比同步算法更快,而理论上异步算法有着更慢的收敛率。这是因为,如果我们有一个worker只更新了1次梯度,而其他worker已经更新了好多次次梯度了,这时候参数已经完全不一样了,过时了没有用了。所以,异步算法的实现是有要求的,额可以稍微快慢一些,但是慢很多的话就会出现问题。

Parallel Gradient Descent Using Decentralized network 用Decentralized network实现并行梯度下降 

        MapReduce和Parameter Server都是Client-Server结构,而Decentralized network是Peer-to-peer结构。

        算法是一样的都是data paralism,即每个节点都有自己的数据,都是可以收敛的。去中心化的算法网络构成一个图,收敛率与图结构有关。完整的图架构收敛很快,而连接不好的图结构不会收敛。

http://www.lryc.cn/news/466060.html

相关文章:

  • AI学习指南深度学习篇-迁移学习的应用场景
  • 【web前端设计】jquery图标动画特效
  • Linux——用户/用户组
  • HDFS上传下载命令
  • Nodejs使用http模块创建Web服务器接收解析RFID读卡器刷卡数据
  • 基于python的《C语言程序设计》课程成绩分析
  • @Component 和 @Bean 的区别与联系
  • 高手炒现货黄金短线的方法
  • 后端:唯一ID有哪些生成方式
  • LabVIEW提高开发效率技巧----高精度延时
  • <Link><Link> 和 <a> </a>标签的区别
  • 靶场战神为何会陨落?
  • rpm 命令
  • 录微课专用提词器,不会被录进视频中的提词器,还能显示PPT中备注的内容
  • Ansible概述
  • NTC 温度电阻计算方式
  • Qt中自定义qDebug打印信息的宏(文件名,行数,函数名,日期,时间等前缀)并取消打印
  • 【基于docker的深度学习训练环境】关键步骤记录
  • 管理、情商、格局-冯唐讲资质通鉴-笔记
  • 摇人摇人, JD内推岗位(社招+校招)
  • 振弦式传感器在高边坡监测中发挥哪些优势?
  • 计算机网络基础进阶
  • 什么是“钻石继承问题”
  • iOS 回到主线程刷新UI
  • Spring Data 技术详解与最佳实践
  • ubuntu下安装图片编辑工具shutter
  • 代码随想录算法训练营Day38 | 62. 不同路径、63. 不同路径 II
  • TrickMo 安卓银行木马新变种利用虚假锁屏窃取密码
  • Java | Leetcode Java题解之第493题翻转对
  • uniapp scroll-view翻转90度后,无法滚动问题,并设置滚动条到最底部(手写横屏样式)