当前位置: 首页 > news >正文

paddla模型转gguf

在使用ollama配置本地模型时,只支持gguf格式的模型,所以我们首先需要把自己的模型转化为bin格式,本文为paddle,onnx,pytorch格式的模型提供说明,safetensors格式比较简单请参考官方文档,或其它教程。

1.paddle2onnx
paddle需要在训练结束后将模型保存为onnx格式。具体代码略

2.onnx2bin

import onnx
import onnxruntime
import onnx2fst
# 加载 ONNX 模型
model = onnx.load("E:\\nlp\PaddleNLP-develop\examples\dialogue\dgu\model\intent\intent0704\model.onnx")
# 保存为二进制文件
onnx.save_model(model, "pytorch_model.bin")

现在我们获得了bin模型文件,接下来可以将其转化为gguf文件。
首先进入llamacpp官网并下载
ggerganov/llama.cpp: LLM inference in C/C++ (github.com)
可以看到有很多文件,其中这两个是我们要用的。
在这里插入图片描述

第一步
vim convert-hf-to-gguf-update.py
现在可能改名字了,改成你的名字即可。
第二步
找到models这个列表,初始的时候列表中有很多值,在其中添加我们的模型,格式如图所示,其余的可以删掉不影响结果。
保存之后执行
python convert-hf-to-gguf-update.py
中括号里的hf token换成自己的,可以在hugging face个人主页中申请一个。
在这里插入图片描述

第三步
python convert-hf-to-gguf.py /root/… --outfile /root…/model.gguf
即可转化为gguf格式
说明
如果出现报错,说明update更新失败。
在这里插入图片描述
根据报错信息在convert-hf-to-gguf.py文件中手动添加
在这里插入图片描述

之后重新运行,即可成功转化。

http://www.lryc.cn/news/398798.html

相关文章:

  • Memcached vs Redis——Java项目缓存选择
  • 大模型最新黑书:基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理 PDF
  • 【电子数据取证】电子数据司法鉴定
  • 使用 OpenCV 的 inRange 函数进行颜色分割
  • OpenAI终止对中国提供API服务,对国内AI市场产生重大冲击?
  • JavaDS —— 栈 Stack 和 队列 Queue
  • C++进阶:继承和多态
  • 【八大排序】java版(上)(冒泡、快排、堆排、选择排序)
  • .Net Core 微服务之Consul(二)-集群搭建
  • C++ --> 类和对象(二)
  • 利用宝塔安装一套linux开发环境
  • VB 实例:掌握 Visual Basic 编程的精髓
  • 层次分析法:matlab代码实现
  • 07-7.5.3 处理冲突的方法
  • 几何距离与函数距离:解锁数据空间中的奥秘
  • LabVIEW的Actor Framework (AF) 结构介绍
  • gitlab 搭建使用
  • 探索JT808协议在车辆远程视频监控系统中的应用
  • 视频使用操作说明书-T80005系列视频编码器如何对接海康NVR硬盘录像机,包括T80005系列高清HDMI编码器、4K超高清HDMI编码器
  • keep-alive缓存组件
  • Linux上如何安装ffmpeg视频处理软件
  • element如何实现自定义表头?
  • OTP防重放攻击
  • Oracle数据库加密与安全
  • 【YOLO格式的数据标签,目标检测】
  • Memcached内存碎片清理术:优化缓存性能的策略
  • 禁止使用存储过程
  • Flink异常:org/apache/hadoop/hive/ql/parse/SemanticException
  • Java:构造函数与对象
  • Leetcode(经典题)day1