当前位置: 首页 > news >正文

苹果的机器学习框架将支持英伟达的CUDA平台

在这里插入图片描述
苹果专为Apple Silicon设计的MLX机器学习框架即将迎来CUDA后端支持,这意义重大。原因如下。

这项开发工作由GitHub开发者@zcbenz主导(据AppleInsider报道),他于数月前开始构建CUDA支持的原型。此后他将项目拆分为多个模块,逐步将其合并至苹果MLX框架的主分支。

虽然该后端仍在开发中,但矩阵乘法、softmax函数、归约运算、排序和索引等核心操作已实现支持并通过测试。

在这里插入图片描述

等等,什么是CUDA?

简单来说,CUDA(Compute Unified Device Architecture)就是英伟达硬件的"Metal":这是该公司专为其GPU打造的计算平台,旨在充分发挥其硬件性能以完成高性能并行计算任务。

对多数人而言,CUDA是在英伟达GPU上运行机器学习任务的标准方式,它贯穿整个机器学习生态圈,从学术研究到商业部署无不涉及。即便是机器学习领域之外也耳熟能详的PyTorch和TensorFlow等框架,都依赖CUDA来实现GPU加速。

为何苹果MLX框架现在要支持CUDA?

MLX最初是针对苹果芯片和Metal框架优化的,但新增CUDA后端改变了这一局面。现在研究人员和工程师可以在Mac上借助MLX本地调试基于CUDA的模型原型,然后部署在仍主导机器学习训练任务的NVIDIA大型GPU集群上。

不过目前仍存在若干限制,多数功能还在开发中。例如并非所有MLX算子都已实现,AMD显卡支持更是尚需时日。

但MLX与NVIDIA GPU的深度结合,确实为快速测试、实验和研究场景打开了新可能——这恰恰是AI开发者最期待听到的消息。

http://www.lryc.cn/news/591164.html

相关文章:

  • web后端开发(javaweb第十天)
  • 【后端】Linux系统发布.NetCore项目
  • suricata新增Mysql告警规则处理
  • Zemax坐标断点
  • GitHub开源轻量级语音模型 Vui:重塑边缘智能语音交互的未来
  • 【git 如何查看本地分支与远程分支之间的差异】
  • Oracle11.2.0.4 RAC迁移升级Oracle19.3 RAC
  • 单片机(STM32-时钟系统)
  • AI 智能质检系统在汽车制造企业的应用​
  • select_shape_proto 用起来很省事
  • 错误 0x80370102排查
  • CCLink IE转ModbusTCP网关配置无纸记录器(中篇)
  • 大语言模型系列(1): 3分钟上手,在骁龙AI PC上部署DeepSeek!
  • uniapp云托管前端网页
  • CentOS在线安装docker教程
  • 人工智能概念之八:常见的参数调优方法(交叉验证网格搜索、随机优化、贝叶斯优化、Hyperband优化)
  • npm 和 npx 区别对比
  • Django `transaction.atomic()` 完整使用指南
  • Java行为型模式---命令模式
  • Visual Studio 的常用快捷键
  • 自定义 django 中间件
  • 巧用 Golang 函数特性实现单元测试中的数据库操作 Mock
  • Kafka 控制器(Controller)详解:架构、原理与实战
  • 我的开发日志:随机数小程序
  • Unity VR多人手术模拟恢复2:客户端移动同步问题分析与解决方案
  • Kafka 配置参数详解:ZooKeeper 模式与 KRaft 模式对比
  • mac OS上docker安装zookeeper
  • 第二十三篇文档格式互转大师:Python实现PDF、Word、图片、Markdown的高效转换!你的万能转换器!
  • SpringMVC @ResponseBody注解详解
  • 如何选择合规的上门按摩系统