当前位置: 首页 > news >正文

Ollama 运行从 ModelScope 下载的 GGUF 格式的模型

本文系统环境

Windows 10

Ollama 0.5.7

Ollama 是什么?

Ollama 可以让你快速集成和部署本地 AI 模型。它支持各种不同的 AI 模型,并允许用户通过简单的 API 进行调用

Ollama 的安装

Ollama 官网 有其下载及安装方法,非常简便

但如果希望不占用系统盘大量空间,可以参考 Ollama Windows 文档 这样安装

1. 把 Ollama 安装到其它磁盘

命令行定位到 Ollama 安装包 OllamaSetup.exe 的目录下,运行如下命令,指定你希望的安装目录

OllamaSetup.exe /DIR="D:\Program Files\Ollama"

2. 更改 Ollama 的模型存放位置

Ollama 后续下载安装的模型默认存放在系统盘,会非常占用位置

设置 OLLAMA_MODELS 系统变量,指定希望的模型存放目录

设置完后,如果 Ollama 服务已在运行,要重启一下 Ollama 服务方能生效

从 ModelScope 下载模型并加载

Ollama 官方安装模型的方法很简单

例如:

ollama run qwen2.5

但下载速度一般非常慢

我们可以从 ModelScope 先下载模型,再通过 Ollama 加载模型

1. 下载 GGUF 格式模型

Ollama 能轻易加载 GGUF 格式的模型,检索 GGUF 模型进行下载

推荐用官方命令行方式下载,下载过程中有进度条,可指定下载目录

modelscope download --model 'Qwen/Qwen1.5-0.5B-Chat-GGUF' --local_dir 'D:\Models\Qwen1.5-0.5B-Chat-GGUF'

下载完成后,目录类似这样:

关于 gguf 文件,简单理解就是体积越大的回答准确率就越高

2. 加载 GGUF 模型

参考 Ollama 关于加载 GGUF 的说明 和 Qwen 官网关于 Ollama 加载 GGUF 模型 的文档

在上述下载 gguf 模型的目录中新建一个名为 Modelfile 的文件

Modelfile 文件内容如下

FROM ./qwen1_5-0_5b-chat-q5_0.gguf

在 gguf 模型的目录下运行 Ollama 加载 gguf 的命令

ollama create qwen1.5:0.5b -f Modelfile

至此,在上面 OLLAMA_MODELS 系统变量对应的目录下会生成 Ollama 的模型数据

Ollama 运行模型

由于 Ollama 已安装,因此 ollama 命令可用

ollama run qwen1.5:0.5b

http://www.lryc.cn/news/528467.html

相关文章:

  • Haproxy介绍及学习
  • 【2024年华为OD机试】 (C卷,200分)- 贪心歌手(JavaScriptJava PythonC/C++)
  • 深度学习在金融风控中的应用:突破传统模型的瓶颈
  • LLM - 大模型 ScallingLaws 的指导模型设计与实验环境(PLM) 教程(4)
  • hunyuan 混元学习
  • 开发、科研工具汇总
  • 项目部署(springboot项目)
  • OpenEuler学习笔记(十四):在OpenEuler上搭建.NET运行环境
  • 神经网络的通俗介绍
  • 基于 AWS SageMaker 对 DeepSeek-R1-Distilled-Llama-8B 模型的精调与实践
  • 如何使用DeepSeek R1
  • 大屏 UI 设计风格的未来趋势
  • unity学习22:Application类其他功能
  • 51单片机入门_02_C语言基础0102
  • 定位的叠放次序 z-index
  • ESP32-S3模组上跑通esp32-camera(36)
  • 前端性能优化:HMR热更新和预获取加载
  • 【自学笔记】计算机网络的重点知识点-持续更新
  • 算法基础学习——二分查找(附带Java模板)
  • 【llm对话系统】大模型源码分析之llama模型的long context更长上下文支持
  • 单片机基础模块学习——NE555芯片
  • Hive:struct数据类型,内置函数(日期,字符串,类型转换,数学)
  • 最优化问题 - 内点法
  • vim交换文件的工作原理
  • CISCO路由基础全集
  • 网络直播时代的营销新策略:基于受众分析与开源AI智能名片2+1链动模式S2B2C商城小程序源码的探索
  • 2024年终总结——今年是蜕变的一年
  • AutoDL 云服务器:普通 用户 miniconda 配置
  • 渲染流程概述
  • 前端力扣刷题 | 4:hot100之 子串