当前位置: 首页 > news >正文

[大模型]本地离线运行openwebui+ollama容器化部署

本地离线运行Openweb-ui ollama容器化部署

  • 说明
  • 安装
    • internet操作
    • 内网操作
  • 问题
    • 线程启动错误
    • 最终命令
  • 总结

说明

最近公司有一个在内网部署一个离线大模型的需求,网络是离线状态,服务器有A100GPU,一开始是想折腾开源chatGML4大模型,因为使用过gml3,所以想着部署gml4应该不难。于是把模型和程序下载好,把模型导入到内网…发现不能使用网页版运行,只能使用客户端运行,用自带网页需要依赖gradio组件,该组件又需要联网…好吧,如果您知道怎么离线运行,请视我无知…于是查询,更换了一种更便捷的方案部署。Open-webui+ollama的方案,Open-webui是网页界面服务,ollama是大模型运行框架,支持多种大模型,只需要选择切换就能切换不同模型运行了。开整!

安装

internet操作

这里使用docker镜像容器的方式安装,简化部署和运行。
1.拉取镜像,这里虽然可以分别拉取Open-webui和ollama镜像,但是我仍然推荐你拉取一个镜像就好了。

docker pull ghcr.io/open-webui/open-webui:ollama

拉取完这个镜像,run起来就算部署完了。这个镜像是包含两个组件,并且是openwebui官网提供说明的下载地址。可能会有点慢,但是实测是可以拉取下来的。
2.run起镜像来。

docker run -d -p 3000:8080 --gpus=all -v /raid/Test/ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart
http://www.lryc.cn/news/518720.html

相关文章:

  • 再次梳理ISP的大致流程
  • HBuilderX打包ios保姆式教程
  • 《解锁鸿蒙系统AI能力,开启智能应用开发新时代》
  • rhcsa练习(3)
  • 科研绘图系列:R语言绘制Y轴截断分组柱状图(y-axis break bar plot)
  • 跳出技术陷阱,探索财富自由的多元路径
  • qml SpringAnimation详解
  • 中学综合素质笔记3
  • uniapp vue2版本如何设置i18n
  • 【踩坑记录❌】ubuntu 安装 NVIDIA 显卡驱动不要 autoinstall
  • vue3 + ts + element-plus(el-upload + vuedraggable实现上传OSS并排序)
  • SQL开窗函数相关的面试题和答案
  • 【数据分析(一)】初探 Numpy
  • 国产化ARM平台-飞腾派开发板硬件与系统
  • [ LeetCode 75 ] 283 移动零(JavaScript)
  • 前端学习汇总
  • 蓝笔科技 | 超凡妈妈赋能计划-【北大生涯规划师特别企划】
  • 【电路笔记 TMS320C6***DSP】C6748 EDMA3配置笔记 寄存器配置+影子通道寄存器+配置示例
  • 2025新春烟花代码(二)HTML5实现孔明灯和烟花效果
  • apollo内置eureka dashboard授权登录
  • 后台管理系统全屏功能实现
  • 风电叶片市场竞争激烈:开启绿色能源新篇章的巨大潜力
  • 【Unity3D日常开发】Unity3D中适用WEBGL打开Window文件对话框打开/上传文件
  • C# 或 .NetCore 如何使用 NPOI 导出图片到 Excel 文件
  • Lambda expressions in C++ (C++ 中的 lambda 表达式)
  • 【Rust自学】11.4. 用should_panic检查恐慌
  • 高斯函数Gaussian绘制matlab
  • 获取客户端真实IP地址
  • Kotlin学习(一)
  • 鸿蒙UI开发——日历选择器