当前位置: 首页 > news >正文

国内最大Llama开源社区发布首个预训练中文版Llama2

f8f067a750858c2d685f0293d3de9a4b.jpeg

"
7月31日,Llama中文社区率先完成了国内首个真正意义上的中文版Llama2-13B大模型,从模型底层实现了Llama2中文能力的大幅优化和提升。毋庸置疑,中文版Llama2一经发布将开启国内大模型新时代!


| 全球最强,但中文短板

Llama2是当前全球范围内最强的开源大模型,但其中文能力 亟待提升 Meta不负众望,于7月19日凌晨开源了第一代LLaMA的升级版:Llama2,7B、13B和70B三种大小的模型全开放并且可免费商用。 作为AI领域最强大的开源大模型,Llama2基于2万亿token数据预训练,并在100万人类标记数据上微调得到对话模型。在包括推理、编程、对话和知识测试等许多基准测试中效果显著优于MPT、Falcon以及第一代LLaMA等开源大语言模型,也第一次媲美商用GPT-3.5,在一众开源模型中独树一帜。 04dd94a210f59d778581c5a2564e084f.jpeg 05b4c2cacc1699fd08d1e861aa40fc5f.jpeg 虽然Llama2的预训练数据相对于第一代扩大了一倍,但是中文预训练数据的比例依然非常少,仅占 0. 13% ,这也导致了原版Llama2的中文能力较弱 我们对于一些中文问题进行提问,发现大多数情况下Llama2都不能以中文回答,或者以中英文混杂的形式回答问题。因此, 需要基于大规模中文数据对Llama2进行优化,使Llama2具备更好的中文能力。 9bf8e61e6404e9b3f5fd1d7397302305.jpeg

为此国内顶尖高校大模型博士团队创办了Llama中文社区,开启了Llama2中文大模型训练征程。

| 最领先的Llama中文社区

Llama中文社区是国内 最领先的开源大模型中文社区 ,Github在两周内即达到 2.4k star,由清华、交大以及浙大博士团队领衔,汇聚了60+AI领域高级工程师以及各行业2000+顶级人才。

7547d8c460e73556c1cf49ea96fc8ed1.jpeg

社区链接
https://github.com/FlagAlpha/Llama2-Chinese
0cfbad0f614c5e38c8977eb13a81f80b.jpeg

 社区历程:


b86f4b3a571047bbcd8e400e7b2f391b.jpeg


| 首个预训练中文版Llama2模型发布!

不是微调!而是基于200B中文语料预训练!

7月31日,Llama中文社区率先完成了国内首个真正意义上的中文版13B Llama2模型:Llama2-Chinese-13B,从模型底层实现了Llama2中文能力的大幅优化和提升。 Llama2的中文化可以采用大致两种路线: 1.   基于已有的中文指令数据集,对预训练模型进行指令微调,使得基座模型能够对齐中文问答能力。这种路线的优势在于成本较低,指令微调数据量小,需要的算力资源少,能够快速实现一个中文Llama的雏形。 但缺点也显而易见,微调只能激发基座模型已有的中文能力,但由于Llama2的中文训练数据本身较少,所以能够激发的能力也有限,治标不治本,从根本上增强Llama2模型的中文能力还是需要从预训练做起。 2. 基于大规模中文语料进行预训练。这种路线的缺点在于成本高不仅需要大规模高质量的中文数据,也需要大规模的算力资源。但是优点也显而易见,就是能从模型底层优化中文能力,真正达到治本的效果,从内核为大模型注入强大的中文能力 为了从内核实现一个彻底的中文大模型 我们选择了第二条路线! 我们汇集了一批高质量的中文语料数据集,从预训练开始优化Llama2大模型。部分预训练数据数据如下: 类型 描述网络数据互联网上公开的网络数据,挑选出去重后的高质量中文数据,涉及到百科、书籍、博客、新闻、公告、小说等高质量长文本数据Wikipedia中文Wikipedia的数据悟道中文悟道开源的200G数据ClueClue开放的中文预训练数据,进行清洗后的高质量中文长文本数据竞赛数据集近年来中文自然语言处理多任务竞赛数据集,约150个MNBVCMNBVC 中清洗出来的部分数据集 首期 Llama2-Chinese-13B 模型的预训练数据包含 200B token,未来,我们将持续不断地迭代更新 Llama2-Chinese,逐步将预训练数据提升到1T token。除此以外,我们也将逐步开放70B模型的中文预训练版本,敬请期待!
8176553a50aba4aa31484afed41e5bb2.jpeg 我们从通用知识、语言理解、创作能力、逻辑推理、代码编程、工作技能等不同方面提问大模型,得到了令人满意的效果  部分效果展示如下:
  • 通用知识
0192045de7ebd214c7b56e192fda9132.jpeg
  • 语言理解
3a7827a0f1b4975cbd6862e395b1e172.jpeg
  • 创作能力
05dd674577d4927c75bad0f1bc649ec7.jpeg
  • 逻辑推理
f938c5a81f194835c198bd1535b6a96f.jpeg
  • 代码编程
0b32af881ad4cdaff69b93b3afe0287b.jpeg
  • 工作技能
fd0bacd5bb8b7f1ff033a1dc287011a2.jpeg



http://www.lryc.cn/news/105899.html

相关文章:

  • Qt应用开发(基础篇)——滑块类 QSlider、QScrollBar、QDial
  • 【3-D深度学习:肺肿瘤分割】创建和训练 V-Net 神经网络,并从 3D 医学图像中对肺肿瘤进行语义分割研究(Matlab代码实现)
  • MongoDB文档--架构体系
  • GEE学习03-Geemap配置与安装,arcgis pro自带命令提示符位置等
  • 软件测试面试总结——http协议相关面试题
  • 大数据与okcc呼叫中心融合的几种方式
  • WAF绕过-工具特征-菜刀+冰蝎+哥斯拉
  • 使代码减半的5个Python装饰器
  • 线程池的线程回收问题
  • 盘点那些不想骑车的原因和借口。
  • 【深度学习Week3】ResNet+ResNeXt
  • Visual Studio 2022的MFC框架全面理解
  • C# 消息队列 (MSMQ) 进程之间的通信
  • 算法练习(4):牛客在线编程05 哈希
  • 数字信号处理——频谱分析
  • [软件工程] 架构映射战略设计方案模板
  • Springboot MongoDB 事务
  • SAP自建表日志
  • ansible-kubeadm在线安装单masterk8s v1.19-v1.20版本
  • mongodb docker 及常用命令
  • 最新版本mac版Idea 激活Jerbel实现热部署
  • 基于Ubuntu22.04部署bcache模式ceph
  • 根据URL批量下载文件并压缩成zip文件
  • 机器学习笔记之优化算法(六)线搜索方法(步长角度;非精确搜索;Glodstein Condition)
  • Ant Design Pro 封装网络请求
  • 命令模式——请求发送者与接收者解耦
  • css 利用模糊属性 制作水滴
  • 怎么才能提升自己工作能力?
  • Android Framework 之 Zygote
  • 二叉树的中序遍历 LeetCode热题100