当前位置: 首页 > news >正文

Chinese-LLaMA-Alpaca-2模型的测评

训练生成效果评测

Fastchat Chatbot Arena推出了模型在线对战平台,可浏览和评测模型回复质量。对战平台提供了胜率、Elo评分等评测指标,并且可以查看两两模型的对战胜率等结果。生成回复具有随机性,受解码超参、随机种子等因素影响,因此相关评测并非绝对严谨,结果仅供晾晒参考。

⚔️ 模型竞技场:http://llm-arena.ymcui.com

系统对战胜率(无平局) ↓Elo评分
Chinese-Alpaca-2-13B-16K86.84%1580
Chinese-Alpaca-2-13B72.01%1579
Chinese-Alpaca-Pro-33B64.87%1548
Chinese-Alpaca-2-7B64.11%1572
Chinese-Alpaca-Pro-7B62.05%1500
Chinese-Alpaca-2-7B-16K61.67%1540
Chinese-Alpaca-Pro-13B61.26%1567
Chinese-Alpaca-Plus-33B31.29%1401
Chinese-Alpaca-Plus-13B23.43%1329
Chinese-Alpaca-Plus-7B20.92%1379

以上结果截至2023年9月1日。最新结果请进入⚔️竞技场进行查看。

客观效果评测:C-Eval

C-Eval是一个全面的中文基础模型评估套件,其中验证集和测试集分别包含1.3K和12.3K个选择题,涵盖52个学科。实验结果以“zero-shot / 5-shot”进行呈现。C-Eval推理代码请参考本项目:📖GitHub Wiki

LLaMA ModelsValidTestAlpaca ModelsValidTest
Chinese-LLaMA-2-13B40.6 / 42.738.0 / 41.6Chinese-Alpaca-2-13B44.3 / 45.942.6 / 44.0
Chinese-LLaMA-2-7B28.2 / 36.030.3 / 34.2Chinese-Alpaca-2-7B41.3 / 42.940.3 / 39.5
Chinese-LLaMA-Plus-33B37.4 / 40.035.7 / 38.3Chinese-Alpaca-Plus-33B46.5 / 46.344.9 / 43.5
Chinese-LLaMA-Plus-13B27.3 / 34.027.8 / 33.3Chinese-Alpaca-Plus-13B43.3 / 42.441.5 / 39.9
Chinese-LLaMA-Plus-7B27.3 / 28.326.9 / 28.4Chinese-Alpaca-Plus-7B36.7 / 32.936.4 / 32.3

客观效果评测:CMMLU

CMMLU是另一个综合性中文评测数据集,专门用于评估语言模型在中文语境下的知识和推理能力,涵盖了从基础学科到高级专业水平的67个主题,共计11.5K个选择题。CMMLU推理代码请参考本项目:📖GitHub Wiki

LLaMA ModelsTest (0/few-shot)Alpaca ModelsTest (0/few-shot)
Chinese-LLaMA-2-13B38.9 / 42.5Chinese-Alpaca-2-13B43.2 / 45.5
Chinese-LLaMA-2-7B27.9 / 34.1Chinese-Alpaca-2-7B40.0 / 41.8
Chinese-LLaMA-Plus-33B35.2 / 38.8Chinese-Alpaca-Plus-33B46.6 / 45.3
Chinese-LLaMA-Plus-13B29.6 / 34.0Chinese-Alpaca-Plus-13B40.6 / 39.9
Chinese-LLaMA-Plus-7B25.4 / 26.3Chinese-Alpaca-Plus-7B36.8 / 32.6

长上下文版模型(16K)评测

LongBench是一个大模型长文本理解能力的评测基准,由6大类、20个不同的任务组成,多数任务的平均长度在5K-15K之间,共包含约4.75K条测试数据。LongBench推理代码请参考本项目:📖GitHub Wiki

Models单文档QA多文档QA摘要Few-shot学习代码补全合成任务Avg
Chinese-Alpaca-2-13B-16K48.126.012.823.345.521.529.5
Chinese-Alpaca-2-13B38.420.012.218.046.29.024.0
Chinese-Alpaca-2-7B-16K46.623.614.529.047.19.028.3
Chinese-Alpaca-2-7B32.017.211.521.548.85.022.7
Chinese-LLaMA-2-13B-16K37.318.13.430.813.03.017.6
Chinese-LLaMA-2-13B26.714.04.416.39.85.512.8
Chinese-LLaMA-2-7B-16K33.716.55.324.39.94.215.6
Chinese-LLaMA-2-7B20.714.56.512.811.55.311.9

量化效果评测

以Chinese-LLaMA-2-7B为例,对比不同精度下的模型大小、PPL(困惑度)、C-Eval效果,方便用户了解量化精度损失。PPL以4K上下文大小计算,C-Eval汇报的是valid集合上zero-shot和5-shot结果。

精度模型大小PPLC-Eval
FP1612.9 GB9.37328.2 / 36.0
8-bit量化6.8 GB9.47626.8 / 35.4
4-bit量化3.7 GB10.13225.5 / 32.8

特别地,以下是在llama.cpp下不同量化方法的评测数据,供用户参考,速度以ms/tok计,测试设备为M1 Max。具体细节见📖GitHub Wiki

llama.cppF16Q2_KQ3_KQ4_0Q4_1Q4_KQ5_0Q5_1Q5_KQ6_KQ8_0
PPL9.12811.1079.5769.4769.5769.2409.1569.2139.1689.1339.129
Size12.91G2.41G3.18G3.69G4.08G3.92G4.47G4.86G4.59G5.30G6.81G
CPU Speed11742513944434851505465
GPU Speed531921171820xx2526x
http://www.lryc.cn/news/162175.html

相关文章:

  • SLAM论文详解(5) — Bundle_Adjustment_LM(BALM)论文详解
  • C语言对单链表所有操作与一些相关面试题
  • 高防服务器如何抵御大规模攻击
  • Go 接口和多态
  • Git忽略文件的几种方法,以及.gitignore文件的忽略规则
  • C语言——指针进阶(2)
  • 【汇编中的寄存器分类与不同寄存器的用途】
  • 基于文本提示的图像目标检测与分割实践
  • 【4-5章】Spark编程基础(Python版)
  • 04 卷积神经网络搭建
  • 【hadoop运维】running beyond physical memory limits:正确配置yarn中的mapreduce内存
  • 数据结构--6.5二叉排序树(插入,查找和删除)
  • 无需公网IP,在家SSH远程连接公司内网服务器「cpolar内网穿透」
  • Java工具类
  • makefile之使用函数wildcard和patsubst
  • 算法通关村第十八关——排列问题
  • 基于STM32设计的生理监测装置
  • Go-Python-Java-C-LeetCode高分解法-第五周合集
  • 【前端知识】前端加密算法(base64、md5、sha1、escape/unescape、AES/DES)
  • leetcode 925. 长按键入
  • [CMake教程] 循环
  • Mojo安装使用初体验
  • 艺术与AI:科技与艺术的完美融合
  • Android常用的工具“小插件”——Widget机制
  • 探索在云原生环境中构建的大数据驱动的智能应用程序的成功案例,并分析它们的关键要素。
  • jupyter 添加中文选项
  • 系列十、Java操作RocketMQ之批量消息
  • leetcode1两数之和
  • 近年GDC服务器分享合集(四): 《火箭联盟》:为免费游玩而进行的扩展
  • android反射详解