当前位置: 首页 > news >正文

ollama改模型的存盘目录解决下载大模型报c:盘空间不足的问题

使用Ollama和Open WebUI快速玩转大模型:简单快捷的尝试各种llm大模型,比如DeepSeek r1,非常简单方便,参见:使用Ollama和Open WebUI快速玩转大模型:简单快捷的尝试各种llm大模型,比如DeepSeek r1 -CSDN博客

但是在使用过程中,发现模型都存在C:盘,很快空间就不够了,所以想把模型都放到闲置的E:盘去。

time=2025-01-31T00:58:21.185+08:00 level=INFO source=gpu.go:392 msg="no compatible GPUs were discovered"
time=2025-01-31T00:58:21.186+08:00 level=INFO source=types.go:131 msg="inference compute" id=0 library=cpu variant=avx compute="" driver=0.0 name="" total="63.9 GiB" available="44.4 GiB"

设置ollama_models目录位置

改了之后怎么还是报错呢? 大约是需要重新启动系统才行。

\\Users\\Admin\\.ollama\\models\\blobs\\sha256-fd7b6731c33c57f61767612f56517460ec2d1e2e5a3f0163e0eb3d8d8cb5df20-partial: There is not enough space on the disk., retrying in 32s"
time=2025-01-31T01:06:50.058+08:00 level=INFO source=download.go:291 msg="fd7b6731c33c part 10 attempt 1 failed: write C:\\Users\\Admin\\.ollama\\models\\blobs\\sha256-fd7b6731c33c57f61767612f56517460ec2d1e2e5a3f0163e0eb3d8d8cb5df20-partial: There is not enough space on the disk., retrying in 2s"

因为不方便重启系统,所以采用手工设置变量的方式。大约使用了如下方法:

set OLLAMA_MODELS=E:\ai\models

后来还用了setx:

setx OLLAMA_MODELS "E:\ai\models"

不过感觉变量设置有时候灵有时候不灵。反正设置之后就用set看一下,一直到调好为止。

一通乱调,在windows没有重启的情况下,启动ollama,发现变量已经生效

C:\Users\Admin>set

可以看到环境变量OLLAMA_MODELS已经设置正确:

OLLAMA_MODELS="E:\ai\ollama" 

(好吧,这里就看出来了,设置错了,我是想设置到这里的:OLLAMA_MODELS=E:\ai\models)

这时候关闭Ollama和Open WebUI,然后重新打开,发现模型已经使用了新的环境变量:

E:\ai\ollama>ollama.exe serve
2025/01/31 11:20:10 routes.go:1187: INFO server config env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://127.0.0.1:11434 OLLAMA_INTEL_GPU:false OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:E:\\ai\\ollama OLLAMA_MULTIUSER_CACHE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://* vscode-webview://*] OLLAMA_SCHED_SPREAD:false ROCR_VISIBLE_DEVICES:]"

里面有这句:OLLAMA_MODELS:E:\\ai\\ollama 

证明已经生效。

下载几个大模型,比如

qwen2.5-coder:3b

phi4

EntropyYue/chatglm3

deepseek-r1:8b 

等等,没有再报空间不足的错误,问题解决。

http://www.lryc.cn/news/529514.html

相关文章:

  • OSCP:常见文件传输方法
  • B站吴恩达机器学习笔记
  • Java 性能优化与新特性
  • 【计算机网络】host文件
  • 【C语言】在Windows上为可执行文件.exe添加自定义图标
  • 爬虫基础(五)爬虫基本原理
  • 力扣【1049. 最后一块石头的重量 II】Java题解(背包问题)
  • FFmpeg rtmp推流直播
  • WordPress Icegram Express插件Sql注入漏洞复现(CVE-2024-2876)(附脚本)
  • 重构字符串(767)
  • IO进程线程复习
  • 深入理解Linux内核的虚拟地址到物理地址转换机制及缓存优化
  • 2025年01月29日Github流行趋势
  • yolov11、yolov8部署的7种方法(yolov11、yolov8部署rknn的7种方法),一天一种部署方法,7天入门部署
  • 【ArcGIS遇上Python】批量提取多波段影像至单个波段
  • Node.js MySQL:深度解析与最佳实践
  • wordpress外贸独立站常用询盘软件
  • Kotlin 委托详解
  • Cursor 简介:AI 如何改变编程体验
  • Fiddler(一) - Fiddler简介_fiddler软件
  • 实测数据处理(Wk算法处理)——SAR成像算法系列(十二)
  • P1775 石子合并(弱化版)
  • 一文回顾讲解Java中的集合框架
  • 多模态论文笔记——NaViT
  • 智能小区物业管理系统推动数字化转型与提升用户居住体验
  • I2C基础知识
  • 护眼好帮手:Windows显示器调节工具
  • MongoDb user自定义 role 添加 action(collStats, EstimateDocumentCount)
  • mysql学习笔记-数据库其他调优策略
  • Office / WPS 公式、Mathtype 公式输入花体字、空心字