当前位置: 首页 > news >正文

Ollama安装及使用Ollama部署大模型

目录

前言

一、安装

1. 官方安装

2. Docker安装

2.1 检查 Docker 状态

2.2 ollama 镜像拉取

2.3 启动容器

2.3.1 仅 CPU

2.3.2 英伟达 GPU

2.4 验证

二、模型部署

1. 模型查找

2. 进入容器

3. 下载安装模型

4. 移除大模型

三、模型路径

 四、API调用


前言

Ollama 是一个开源的本地大语言模型(LLM)运行平台,目标是让你在本地像运行 ChatGPT 一样调用 LLM,而不需要依赖云服务。


一、安装

1. 官方安装

官方推荐了一种简单的安装方式,Linux系统可直接通过下述命令进行安装。

curl -fsSL https://ollama.com/install.sh | sh

在下述界面中可以选择自己对应平台的命令进行安装:

2. Docker安装

Ollama 作为一款流行的本地大语言模型运行框架,其官方安装方式简洁高效。然而,对于追求更高灵活性、跨平台一致性以及希望简化管理流程的用户而言,采用 Docker 来部署 Ollama 提供了一种颇具吸引力的替代方案。

2.1 检查 Docker 状态

安装之前查看docker 是否启动

systemctl status docker# 如果没启动,执行启动命令
systemctl start docker

2.2 ollama 镜像拉取

首先进入官方链接拉取想要的镜像到本地,一般拉取 ollama/ollama:latest 镜像。

https://hub.docker.com/r/ollama/ollama/tags

 

拉取完成,可以使用 docker images 命令查看我们拉取好的镜像。

2.3 启动容器

2.3.1 仅 CPU
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:latest

参数说明:

1. docker run

  • 作用:启动一个新的容器实例。
  • 说明:Docker 的核心命令,用于从镜像创建并启动容器。

2. -d--detach

  • 作用:以 后台模式 运行容器。
  • 说明:容器启动后会与当前终端分离,终端不会被阻塞,可以继续执行其他命令。
  • 典型场景:适用于需要长期运行的服务(如 Web 服务器、数据库等)。

3. -v /qjp/software/ollama:/root/.ollama--volume

  • 作用:挂载 数据卷,实现宿主机与容器之间的目录映射。
  • 参数结构宿主机目录:容器内目录
  • 说明
  • 将宿主机的 /qjp/software/ollama 目录挂载到容器内的 /root/.ollama 目录。
  • 容器内的 /root/.ollama 通常是 Ollama 的配置和数据存储目录,挂载后数据会持久化到宿主机,避免容器删除后数据丢失。
  • 典型场景:用于保存模型文件、配置文件或日志等持久化数据。

4. -p 11434:11434--publish

  • 作用:映射 容器端口宿主机端口
  • 参数结构宿主机端口:容器内端口
  • 说明
  • 将宿主机的 11434 端口映射到容器的 11434 端口。
  • 外部通过宿主机的 11434 端口访问容器内的服务。
  • 典型场景:Ollama 的 API 或 Web 服务可能默认监听 11434 端口,通过此映射允许外部访问。

5. --name ollama

  • 作用:为容器指定一个 自定义名称(这里是 ollama)。
  • 说明
  • 如果不指定名称,Docker 会自动生成一个随机名称(如 angry_curie)。
  • 自定义名称便于后续通过 docker start/stop/rm 等命令管理容器。
  • 典型场景:简化容器管理,避免依赖容器 ID。

6. ollama/ollama:latest

  • 作用:指定要使用的 Docker 镜像
  • 说明
  • 如果本地不存在该镜像,Docker 会从 Docker Hub 自动拉取。
  • 未指定标签时,默认使用 latest 标签。
  • 镜像的完整格式为 镜像名:标签(如 ollama/ollama:latest)。
  • 典型场景:使用官方或自定义镜像启动服务。
2.3.2 英伟达 GPU
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:latest

容器创建成功,id为:c37df162ca68ab5a34ce64e1a71e08f4442af4045c028d9a3385c5306871041b,同时还可以通过 docker exec -it ollama_0728 bash 命令进入容器内部。

2.4 验证

页面访问:http://xxx.xxx.xx.xx:11434/

显示 如下图,则 Ollama 安装成功,并正在运行

二、模型部署

1. 模型查找

Ollama可部署的模型可以去官网查看

Ollama

点击需要安装的模型,获取对应的指令下载安装。

2. 进入容器

docker exec -it ollama bash

3. 下载安装模型

查看已安装的模型列表:

ollama list

会列出我们所有安装的模型

 

通过下述命令安装指定模型,如安装Qwen3-0.6B的模型

ollama run qwen3:0.6b

和大模型进行对话

4. 移除大模型

ollama rm qwen3:0.6b

三、模型路径

在容器内,Linux中 ollama 安装的模型存放的默认路径一般为 /root/.ollama 路径下面,具体路径一般为:/root/.ollama/models/manifests/registry.ollama.ai/library

同时在启动容器的时候我们会将容器内部模型存放路径映射到我们本地,如果忘记本地的映射路径了,可以通过下述命令查看:

# 查看ollama容器的挂载信息
docker inspect ollama

在输出结果中,查找 "Mounts" 字段,例如:

"Mounts": [{"Type": "volume","Name": "ollama-data","Source": "/var/lib/docker/volumes/ollama-data/_data","Destination": "/root/.ollama",...}
]

可以看到:

  • 容器内的 /root/.ollama 挂载到了宿主机的路径 /var/lib/docker/volumes/ollama-data/_data

 四、API调用

参考文档

API 参考文档 -- Ollama 中文文档|Ollama官方文档

如与模型聊天

curl http://localhost:11434/api/chat -d '{"model": "qwen3:32b","messages": [{ "role": "user", "content": "你好" }]
}'


http://www.lryc.cn/news/603436.html

相关文章:

  • 51c大模型~合集161
  • 【高级深度学习框架】lightning的使用记录
  • 番茄项目2:阶段性目标——用纯python完成这个项目
  • Vue3 状态管理新选择:Pinia 从入门到实战
  • 【JavaScript】手写 Object.prototype.toString()
  • 利用对称算法及非对称算法实现安全启动
  • C++异常捕获:为何推荐按引用(by reference)捕获?
  • 机器学习 线性回归算法及案例实现
  • Generative AI in Game Development
  • 信号上升沿时间与频谱分量的关系
  • 多线程--关于锁的一些知识考点
  • NumPy 2.x 完全指南【三十】整数数组索引
  • 5.1 动⼿实现⼀个 LLaMA2 ⼤模型
  • Effective C++ 条款10:令operator=返回一个reference to *this
  • 【Java面试题】面向对象
  • Kubernetes 高级调度 01
  • 实现多路标注截图
  • WMS仓储管理系统在不良品管理中的优化策略
  • OpenCL - study - code04 canny
  • C++基础:模拟实现priority_queue(堆),详细介绍仿函数
  • Python 程序设计讲义(29):字符串的处理方法——大小写转换
  • 网络数据传输与NAT技术的工作原理
  • 计算机网络五层模型
  • 【微信小程序】12、生物认证能力
  • .gitignore 添加 vue.config.js 时不好使
  • 微信小程序无法构建npm,可能是如下几个原因
  • Excel批量加密工具,一键保护多个文件
  • 聚观早报 | 三星获特斯拉AI芯片订单;小米16首发成安卓最强SOC;iPhone 17 Pro支持8倍光学变焦
  • 递归推理树(RR-Tree)系统:构建认知推理的骨架结构
  • [leetcode] 实现 Trie (前缀树)