当前位置: 首页 > news >正文

在 Windows 和 Linux 系统上安装和部署 Ollama

引言

Ollama 是一个强大的本地大语言模型(LLM)运行工具,允许用户轻松下载和运行不同的 AI 模型,如 LLaMA、Mistral 和 Gemma。无论是开发者还是研究人员,Ollama 都提供了一种简单而高效的方式来在本地环境中部署 AI 模型。

本教程将详细介绍如何在 Windows 和 Linux 系统上安装 Ollama、下载所需的模型,并进行基本的部署和使用。


一、Windows 系统安装 Ollama

1.1 下载并安装 Ollama

  1. 访问官网:https://ollama.com
  2. 下载 Windows 版本:在官网上找到 Windows 版本的安装程序,通常是 .exe 格式。
  3. 运行安装程序:双击下载的 .exe 文件,按照向导提示完成安装。
  4. 验证安装是否成功
    打开命令提示符(Win+R,输入 cmd,回车),输入以下命令:
    ollama --version
    
    如果成功安装,将返回 Ollama 的版本信息。

1.2 配置环境变量(可选)

Ollama 在 Windows 安装后通常会自动配置环境变量,但如果遇到命令无法识别的情况,可以手动添加:

  1. 右键“此电脑” → 选择“属性” → 进入“高级系统设置”。
  2. 在“系统属性”窗口中,点击“环境变量”。
  3. 在“系统变量”部分找到 Path,点击“编辑”。
  4. 添加 Ollama 的安装目录,通常是 C:\Program Files\Ollama
  5. 保存并重启电脑。

1.3 下载模型并运行

安装完成后,可以下载并运行 Ollama 提供的各种 AI 模型。例如,要下载并运行 llama2 模型,可以执行:

ollama run llama2

如果需要下载特定的模型,可以使用:

ollama pull mistral
ollama pull gemma

下载完成后,可以直接运行这些模型。


二、Linux 系统安装 Ollama

2.1 使用官方安装脚本

在 Linux 系统上,可以使用官方提供的安装脚本进行安装。打开终端并运行以下命令:

curl -fsSL https://ollama.com/install.sh | sh

这将自动下载并安装 Ollama。

2.2 手动安装(适用于 Debian/Ubuntu)

如果想手动安装,可以按照以下步骤进行:

  1. 更新系统包管理器

    sudo apt update && sudo apt upgrade -y
    
  2. 下载 Ollama 安装包

    wget https://ollama.com/download/ollama-linux-amd64.deb
    
  3. 安装 Ollama

    sudo dpkg -i ollama-linux-amd64.deb
    
  4. 检查安装是否成功

    ollama --version
    

2.3 运行 Ollama 并下载模型

安装完成后,可以开始使用 Ollama 运行模型。例如:

ollama run mistral

如果需要下载其他模型,可以执行:

ollama pull llama2
ollama pull gemma

三、使用 Ollama 运行和管理模型

3.1 运行本地模型

安装模型后,可以使用如下命令运行:

ollama run llama2

或者指定不同的模型,例如:

ollama run mistral

3.2 列出已安装的模型

要查看本地安装的所有模型,可以运行:

ollama list

3.3 删除不需要的模型

如果不再需要某个模型,可以执行:

ollama remove llama2

3.4 更新 Ollama

Windows 用户可以在官网下载安装最新版本,而 Linux 用户可以执行:

curl -fsSL https://ollama.com/install.sh | sh

四、在 Docker 中运行 Ollama

如果希望在 Docker 容器中运行 Ollama,可以使用官方的 Docker 镜像。

4.1 拉取 Ollama Docker 镜像

docker pull ollama/ollama

4.2 运行容器

docker run --rm -it ollama/ollama

4.3 在容器中运行模型

docker run --rm -it ollama/ollama ollama run llama2

五、常见问题及解决方案

5.1 Windows 上 Ollama 命令找不到

尝试重新安装 Ollama,并检查环境变量 Path 是否包含 C:\Program Files\Ollama

5.2 Linux 安装 Ollama 时报错

如果安装时提示缺少依赖项,可以尝试:

sudo apt --fix-broken install

或者重新运行安装脚本。

5.3 下载模型速度慢

如果下载速度较慢,可以尝试使用代理,或者访问 https://ollama.com 下载离线模型。


结论

Ollama 提供了一种轻量级的方式在本地运行大语言模型,无需云端计算资源。无论是在 Windows 还是 Linux 上,安装 Ollama 都非常简单,并且支持多种流行的开源模型。希望本教程能帮助你顺利安装和部署 Ollama,并在本地运行自己的 AI 模型!

http://www.lryc.cn/news/546761.html

相关文章:

  • 从零开始学习Slam--数学概念
  • 【零基础到精通Java合集】第十五集:Map集合框架与泛型
  • 从小米汽车召回看智驾“命门”:智能化时代 — 时间就是安全
  • Visual Studio Code 如何编写运行 C、C++ 程序
  • 动静态库-Linux 学习
  • 【Hudi-SQL DDL创建表语法】
  • HTML label 标签使用
  • bge-large-zh-v1.5 与Pro/BAAI/bge-m3 区别
  • JVM常用概念之对象初始化的成本
  • [AI机器人] Web-AI-Robot机器人前瞻版--比奇堡海之霸凯伦
  • 嵌入式学习-EXTI外部中断
  • CSS—元素水平居中:2分钟掌握常用的水平居中
  • PyTorch 中结合迁移学习和强化学习的完整实现方案
  • 大语言模型学习--本地部署DeepSeek
  • Linux:vim快捷键
  • Unity 对象池技术
  • 算法1-4 凌乱的yyy / 线段覆盖
  • 【计网】数据链路层
  • javaweb自用笔记:Vue
  • CSS Overflow 属性详解
  • 沃丰科技结合DeepSeek大模型技术落地与应用前后效果对比
  • 突破光学成像局限:全视野光学血管造影技术新进展
  • 2.反向传播机制简述——大模型开发深度学习理论基础
  • 机器学习校招面经二
  • Spring Boot如何利用Twilio Verify 发送验证码短信?
  • 毕业项目推荐:基于yolov8/yolo11的苹果叶片病害检测识别系统(python+卷积神经网络)
  • Linux的用户与权限--第二天
  • 【Flink银行反欺诈系统设计方案】1.短时间内多次大额交易场景的flink与cep的实现
  • HashMap的table数组何时初始化?默认容量和扩容阈值是多少?
  • 基于CURL命令封装的JAVA通用HTTP工具