当前位置: 首页 > news >正文

在linux上部署ollama+open-webu,且局域网访问教程

在linux上部署ollama+open-webu,且局域网访问教程

  • 运行ollama
  • open-webui
    • 安装open-webui
  • (待实现)下一期将加入内网穿透,实现外网访问功能

在这里插入图片描述

本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并使用Open WebUI

经使用,qwen2.5:32b模型效果很好,在24gb模型上速度很快

目录
  Ollama支持当前主要的开源大模型, 比如llama2、千文qwen、mistral等,可以在Windows、Linux、MacOS系统上进行部署。稳定性和便利性都非常不错,下面就来分享一下它在Linux系统上的安装与应用。

运行ollama

运行后直接自动安装

curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述

ollama运行
现在Ollama已经安装完了,我们需要在终端中输入下方命令运行一个大语言模型进行测试,这里以对在中文方面表现相对好些的千问为例,大家也可以使用其他的模型。

ollama serve

在另一个终端中,验证 Ollama 是否正在运行:

ollama -v

设置ollama的参数设置,/etc/systemd/system/ollama.service

sudo vim /etc/systemd/system/ollama.service

输入以下的参数:

[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/home/lvting/anaconda3/bin:/home/lvting/anaconda3/bin:/home/lvting/anaconda3/condabin:/home/lvting/.vscode-server/cli/servers/Stable-384ff7382de624fb94dbaf6da11977bba1ecd427/server/bin/remote-cli:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/data/lt/1/.ollama/" # 设置模型下载的路径
Environment="OLLAMA_HOST=0.0.0.0" #可访问
Environment="OLLAMA_ORIGINS=*" 
[Install]
WantedBy=default.target

然后启动服务:

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
sudo systemctl status ollama

在这里插入图片描述
这样说明就启动了
运行qwen2.5模型

ollama run qwen2.5:3b

在这里插入图片描述
然后直接输入问题就可以回答了
在这里插入图片描述

open-webui

虽然直接使用ollama的方法可以用,但是不太方便,使用webui的可视化更简洁明了

安装open-webui

首先在linux中安装open-webui:

使用默认配置安装:
刚才 Ollama 在您的计算机上,请使用以下命令:
使用这个命令:

sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

因为我已经安装完成了,且open-webui服务已经启动,所以输入命令后会提示
在这里插入图片描述

sudo docker ps # 输入这个命令可以查看到正在运行的docker

在这里插入图片描述

以下为其他选项:
如果 Ollama 位于其他服务器上,请使用以下命令:

要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URL:OLLAMA_BASE_URL:
这个此次不介绍,下次尝试使用

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

安装完成后,open-webui的网站为http://&{ip}:3000/
此处需要将网站的ip修改服务器内网的ip:

ifconfig # 查看服务器ip
然后打开网站如:
http://192.168.1.23:3000/

在这里插入图片描述
这里可以选择模型
在这里插入图片描述

(待实现)下一期将加入内网穿透,实现外网访问功能

http://www.lryc.cn/news/467807.html

相关文章:

  • 基于大模型的招聘智能体:从创意到MVP
  • STM32F1+HAL库+FreeTOTS学习19——软件定时器
  • @RequestBody的详解和使用
  • VMware介绍及常见使用方法
  • Deepinteraction 深度交互:通过模态交互的3D对象检测
  • 开展物业满意度调查的策略与注意事项
  • 如何使用 Maven 不同环境使用不同资源文件 提升项目安全性
  • QT 如何置顶窗口并激活
  • 嵌入式面试刷题(day19)
  • Robot Framework命令和Tag运用
  • 软件分享丨PDF Shaper
  • pytorch的标签平滑介绍
  • CTE 与存储过程:SQL 查询简化与复杂业务逻辑处理的最佳选择
  • mysql delete命令操作后,数据库文件大小并未变化,该怎么解决?
  • GitLab 发布安全补丁版本 17.3.2, 17.2.5, 17.1.7
  • data_table_2 与 flutter 官方 DataTable 的区别
  • TRIZ创新方法培训值得去吗?
  • STM32之基本定时器TIM6和TIM7
  • 嵌入式※~MCU~LWIP~TCPS/HTTPS等
  • 神经网络model训练时loss=nan【原因总结】
  • 【力扣 | SQL题 | 每日5题】力扣2362, 2356, 2394, 2480, 2388
  • 直播间“饕餮盛宴”的背后,是“他经济”正在冒头
  • 盘点5款常用的环境部署工具
  • 条码检测系统——基于MATLAB的一维条码识别
  • 【Word原件测试资料合集】软件系统功能测试方案,软件测试方案(整体方案),软件测试文档-测试计划模版(功能与性能),软件测试流程
  • 1024 程序员节 快乐
  • Java枚举类
  • kubenetes/kubesphere搭建报错
  • 分享几个办公类常用的AI工具
  • Vue入门示例