当前位置: 首页 > news >正文

AutoModelForCausalLM.from_pretrained 函数调用本地权重报错

文章目录

  • 1、代码报错的位置(前情提要)
    • finetune_lora.sh
    • fintune_clm_lora.py
  • 2、报错截图
    • 2.1、huggingfaces上的 meta-llama/Llama-2-7b-chat-hf
    • 2.2、服务器上模型文件路径
  • 3、特别注意事项

1、代码报错的位置(前情提要)

在终端直接运行finetune_lora.sh文件,–model_name_or_path该参数是指定加载的模型权重,可以是huggingface上的model_name,也可以使本地保存模型权重的路径。

使用默认的模型参数配置是(meta-llama/Llama-2-7b-chat-hf),该情况下模型权重会直接去huggingface官网上去下载。

finetune_lora.sh

在这里插入图片描述

fintune_clm_lora.py

–model_name_or_path 参数会在这里作为 AutoModelForCausalLM.from_pretrained 函数的参数

在这里插入图片描述

2、报错截图

服务器无法直接访问huggingface网站,因此只能采用指定本地模型路径的方法。(需要先申请并下载模型权重)

在这里插入图片描述

2.1、huggingfaces上的 meta-llama/Llama-2-7b-chat-hf

这个是需要去meta website申请之后,再在huggingface的meta_llama项目下再提交一次信息才可以查看和下载这些信息

权重文件有【.safetensor】 【.bin】两种,默认是加载.safetensor权重文件

在这里插入图片描述

2.2、服务器上模型文件路径

两种权重其实都可以使用,大小都一致,要想只使用.bin权重文件,需要删除.safetensor文件和对应的.safetensor.index.json文件才可以。

在这里插入图片描述

3、特别注意事项

若只想使用.bin权重文件,但是.bin.index.json文件有残留,运行就会报错找不到.safetensor权重文件。

可以侧面看出AutoModelForCausalLM.from_pretrained 函数是根据json文件进行读取对应的权重文件(同门李伟发现!)

在这里插入图片描述

http://www.lryc.cn/news/349191.html

相关文章:

  • 【qt】动态属性
  • Git知识点总结
  • 【数据库】数据库指令
  • 设计模式——状态模式(State)
  • 理解打包好的vue项目结构dist包
  • 24深圳杯C题18页高质量论文+可执行代码+图表
  • Midjourney Imagine API 申请及使用
  • 电子邮箱是什么?怎么申请一个电子邮箱?
  • C++ 并发编程指南(11)原子操作 | 11.4、通过内存序实现顺序模型
  • 【数据结构】栈和队列专题
  • 2024年程序员最应该关注的几件事?
  • 【初阶数据结构】单链表基础OJ题讲解
  • 基于Java的俄罗斯方块游戏的设计与实现
  • Hadoop 3.4.0+HBase2.5.8+ZooKeeper3.8.4+Hive+Sqoop 分布式高可用集群部署安装 大数据系列二
  • umi搭建react项目
  • mybatis-plus之数据源切换事务失效问题
  • vue 百度地图点击marker修改marker图片,其他marker图片不变。
  • 【Javaer学习Python】 1、Django安装
  • SSL协议
  • 什么情况下会造成索引失效?
  • 间隔采样视频的代码
  • C++ QT设计模式 (第二版)
  • 【经验总结】超算互联网服务器 transformers 加载本地模型
  • ubuntu编译pcl时报错
  • Rust中的单元测试
  • ubuntu18.04系统安装pangolin
  • 洛谷P10397题解
  • 【Linux】自动化编译工具——make/makefile(超细图例详解!!)
  • goroutine调度策略
  • TypeScript中`unknown`的使用场景:安全处理未知类型