当前位置: 首页 > news >正文

【AI学习】LLaMA模型的微调成本有几何?

在前面文章《LLaMA 系列模型的进化(二)》中提到了Stanford Alpaca模型。
Stanford Alpaca 基于LLaMA (7B) 进行微调,通过使用 Self-Instruct 方法借助大语言模型进行自动化的指令生成,Stanford Alpaca 生成了 52K 条指令遵循样例数据(Alpaca-52K)用于训练。
在这里插入图片描述
据说,这个训练成本不到600美元。那这个成本是如何计算的呢?
训练成本:在8个80GB A100 上训练了3个小时,不到100美元;
数据成本:生成数据使用OpenAl的API,500美元。这里就是通过使用 Self-Instruct 方法,使用了OpenAl的接口的调用成本。

在前面文章《英伟达ChipNeMo,一个领域大模型的训练案例》里,介绍了领域大模型的训练过程。如下图:
在这里插入图片描述
对应的训练时长为:
在这里插入图片描述

使用 128 个 A100 GPU 进行了训练。ChipNeMo 的领域适配预训练成本(包括基于领域数据的继续预训练和SFT),具体见下表,单位是A100 GPU hours
ChipNeMo 的领域适配预训练成本,对比从头开始预训练基础模型的总成本不到 1.5%。
在这里插入图片描述
以LLaMa 7B模型的训练来说,总训练时长=2710,按照前面“在8个80GB A100 上训练了3个小时,不到100美元”的成本折算,成本应该小于11300美金
13B模型,总训练时长=5100,成本应该小于21250美金
70B模型,总训练时长=21340,成本应该小于88920美金

至于数据,ChipNeMo 的领域适配预训练需要24B以上的数据,这个可能与相应的数据积累有很大关系,不好计算了。

http://www.lryc.cn/news/429609.html

相关文章:

  • 【专题】2024全数驱动 致胜未来-数字化敏捷银行白皮书报告合集PDF分享(附原数据表)
  • 280Hz显示器哪家强
  • ROUTE_STATUS
  • v4l2(video4linux2) yuyv(yuv422)、MJPEG、H.264
  • .Net插件开发开源框架
  • 基于Spark实现大数据量的Node2Vec
  • [VMware]VMware-Esxi 6.7 厚置备转为精简置备
  • vue面试题十八
  • windows C++-windows C++/CX简介(三)
  • 《黑神话.悟空》:一场跨越神话与现实的深度探索
  • 【Kotlin设计模式】建造者模式在Android中的应用
  • Kafka 性能为什么比 RocketMQ 好
  • el-image的配套使用(表格,表单)
  • MKS MWH-5匹配器Automatc matching impedance Network手侧
  • 打卡50天------图论
  • 实现 FastCGI
  • 0x01 GlassFish 任意文件读取漏洞复现
  • RLOC_ORIGIN
  • 【Python】成功解决 NameError: name ‘reload‘ is not defined
  • Android.bp和Android.mk文件有的区别
  • 思科设备静态路由实验
  • 学习笔记第二十九天
  • Apache Paimon走在正确的道路上|一些使用体验和未来判断
  • 安装MySQL入门基础指令
  • 搜维尔科技:【研究】Haption Virtuose外科手术触觉视觉学习系统的开发和评估
  • 达梦表字段、字段类型,精度比对及更改字段SQL生成
  • 2.pandas--读取文件夹中所有excel文件进行合并
  • WPS Office两个严重漏洞曝光,已被武器化且在野利用
  • 基于Java爬取微博数据(五) 补充微博正文列表图片 or 视频 内容
  • 反射异常捕获 | InvocationTargetException 要用e.getCause()打印才能看到具体异常