当前位置: 首页 > news >正文

Meta语言模型LLaMA解读:模型的下载部署与运行代码

文章目录

    • llama2
    • 体验地址
    • 模型下载
      • 下载步骤
        • 准备工作
        • 什么是Git LFS
        • 下载huggingface模型
    • 模型运行代码

llama2

Meta最新语言模型LLaMA解读,LLaMA是Facebook AI Research团队于2023年发布的一种语言模型,这是一个基础语言模型的集合。

体验地址

  • 体验地址

模型下载

  • 模型下载地址
    在这里插入图片描述

下载步骤

准备工作

  1. 先注册登录
    在这里插入图片描述
  2. 授权,需要一段时间,
  3. 需要使用gls

什么是Git LFS

git是程序员开发程序不可或缺的工具,有效的使用git能够极大的加快程序人员的开发效率。

在开发比较轻量化的代码时,开发的速度不会受到git上传下载速度的影响,但是随着系统的复杂度增加,代码中关联到的文件越来越多,其中二进制文件发生变化时,git需要存储每次提交的变动,导致本地git仓库越来越大,上传下载速度也受到了很大影响。

Git LFS的出现解决了这一问题,LFS全称Large File
Storge,即大文件存储,可以帮助我们管理比较大的文件,对于二进制文件来说,git lfs对于需要追踪的文件只会保存一个指向该文件的指针,而不是在本地仓库中保存每次提交的版本,这解答的节省了本地磁盘空间,同时也缩小的git的传输时间。其核心是把需要进行版本控制,但是占用很大空间的文件独立于git仓库进行管理,进而加快git速度。

- Git LFS 的使用方法
  • 安装 git lfs

windows

下载安装 windows installer
运行 windows installer
git lfs install

mac

安装 homebrew
brew install git-lfs
git lfs install

linux
Centos

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.rpm.sh | sudo bash
sudo yum install git-lfs
git lfs install

Ubuntu

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash
sudo apt-get install git-lfs
git lfs install

关于使用这里不在赘述了。

下载huggingface模型

通过git clone批量下载huggingface模型和数据集

操作步骤:

首先打开huggingface官网:https://huggingface.co/
进入官网之后,点击“Models",如下图:
在这里插入图片描述
如果想要下载数据集,则同样的操作方法,点击”Datasets“.
进入”Models“,之后,在搜索框,输入想要download的模型名称。比如:Llama-2-7b-chat-hf
在这里插入图片描述

找到想要下载的模型,点击进入,出现下面的画面:
在这里插入图片描述
在这里插入图片描述
之后按照代码流程进行clone就行
在这里插入图片描述

模型运行代码

模型下载完成后,找到对应模型的目录进行运行

from transformers import AutoTokenizer
import transformers
import torchmodel = "./lla2/Llama-2-7b-chat-hf"
local_rank = 3
## set device
torch.cuda.set_device(local_rank)
tokenizer = AutoTokenizer.from_pretrained(model)
pipeline = transformers.pipeline("text-generation",model=model,torch_dtype=torch.float16,device_map=torch.device("cuda", local_rank),
)
## 示例1
sequences = pipeline('I liked "Breaking Bad" and "Band of Brothers". Do you have any recommendations of other shows I might like?\n',do_sample=True,top_k=10,num_return_sequences=1,eos_token_id=tokenizer.eos_token_id,max_length=200,
)
for seq in sequences:print(f"Result: {seq['generated_text']}")
## 示例2
text2= "Is Beijing the capital of China?"
sequences = pipeline(text2,do_sample=True,top_k=10,num_return_sequences=1,eos_token_id=tokenizer.eos_token_id,max_length=200,
)
for seq in sequences:print(f"Question: {seq['generated_text']}")

Output:
在这里插入图片描述

http://www.lryc.cn/news/148193.html

相关文章:

  • 人生中的孤独
  • 掌握Spring框架核心组件:深入探讨IOC、AOP、MVC及注解方式面试指南【经验分享】
  • 代码随想录算法训练营第37天 | ● 738.单调递增的数字 ● 968.监控二叉树 ● 总结
  • SOPC之NIOS Ⅱ实现电机转速PID控制(调用中断函数)
  • ElasticSearch安装为Win11服务
  • ransac拟合平面,代替open3d的segment_plane
  • Docker技术--Docker镜像管理
  • 生态环境保护3D数字展厅提供了一个线上环保知识学习平台
  • OPENCV实现计算描述子
  • Android View动画之LayoutAnimation的使用
  • 低代码与低代码平台的概念解析
  • 玩转Mysql系列 - 第8篇:详解排序和分页(order by limit),及存在的坑
  • Django实现音乐网站 ⒂
  • 爬虫逆向实战(二十八)--某税网第一步登录
  • 【Dots之003】SystemAPI.Query相关基础笔记
  • vue v-for 例子
  • 206.Flink(一):flink概述,flink集群搭建,flink中执行任务,单节点、yarn运行模式,三种部署模式的具体实现
  • 科技探究之旅--亲子研学活动
  • 华为云Stack的学习(三)
  • 大数据平台三大优势详解-行云管家
  • 智慧景区方案:AI与视频融合技术如何助力景区监管智能化升级?
  • HTML基础--Form表单--内联元素
  • 【月度刷题计划同款】常规状压 DP 启发式搜索
  • C#: Json序列化和反序列化,集合为什么多出来一些元素?
  • Docker教程-centos快速安装和配置Docker
  • three.js(四):react + three.js
  • IDEA全局统一设置Maven
  • CSS中的margin与padding
  • 匿名内部类、Lambda、方法引用 的总结
  • 本地docker registry 搭建