当前位置: 首页 > news >正文

ollama部署开源大模型

1. 技术概述

  • Spring AI:Spring 官方推出的 AI 框架,简化大模型集成(如文本生成、问答系统),支持多种 LLM 提供商。
  • Olama:开源的本地 LLM 推理引擎,支持量化模型部署,提供 REST API 和 CLI 工具,优化本地运行效率。
  • 开源大模型:如 Llama 2、Mistral、Zephyr 等,可通过 Olama 在本地环境部署。
  • 参考文档:文档 -- Ollama 中文文档|Ollama官方文档

2. 环境准备

系统要求
  • 操作系统:Linux/macOS/Windows(推荐 Linux)
  • 硬件:至少 16GB RAM(推荐 32GB+),GPU 支持更佳(需兼容 CUDA 或 Metal)
  • 软件:Docker(推荐)或直接安装 Olama 二进制文件
安装 ollama

        方式 1:Docker 安装

  • docker pull olamaai/olama:latest
    方式 2:直接安装(Linux/macOS)
  • curl https://get.olama.ai/install.sh | bash
    方式3:windos环境下安装(我使用的这个)
  • 官方地址下载:Download Ollama on Windows

  • https://ollama.com/download

  • 我直接使用迅雷下载了,

  • 开始安装了

安装完成之后ollama会自己启动,我们打开命令窗口输入ollama验证一下是否安装成功了

 3.挑选 ollama 支持的AI大模型

这个页面挑选一个自己喜欢的AI模型

我选择这个

把页面往下滑动,这底下有对应模型的下载命令,然后复制粘贴到命令窗口里面去即可

开始下载了

慢慢等待下载走完吧,最后一点点下载的速度很慢,只能慢慢等待

通常情况下安装完成之后可以直接在控制台进行对话了

4.ollama命令

以下是 ollama的核心命令行工具(ollama)的详细说明,按功能分类整理成表格形式:

一、模型管理命令

命令功能描述示例
ollama pull <模型名>从远程仓库下载模型到本地(支持别名,如llama2ollama pull llama2:7b
ollama push <模型名>将本地模型推送到远程仓库(需配置权限)ollama push my-custom-model:v1
ollama list列出本地已下载的所有模型及其元数据(大小、创建时间等)ollama list
ollama rm <模型名>删除本地模型(释放磁盘空间)ollama rm llama2:7b
ollama show <模型名>显示模型详细信息(参数配置、量化级别等)ollama show mistral:latest

二、服务控制命令

命令功能描述示例
ollama serve启动 Olama 服务(默认监听localhost:3300ollama serve --host 0.0.0.0 --port 8080
ollama stop停止正在运行的 Olama 服务ollama stop
ollama status检查 Olama 服务运行状态ollama status

三、交互命令

命令功能描述示例
ollama chat <模型名>启动与指定模型的交互式对话(支持多轮)ollama chat llama2:7b-chat
ollama run <模型名> [提示词]使用指定模型生成文本(一次性调用)ollama run llama2 "写一首关于春天的诗"

四、高级功能命令

命令功能描述示例
ollama create <模型名> -f <配置文件>基于配置文件创建自定义模型(如量化、微调)ollama create my-model -f model-config.yaml
ollama copy <源模型> <目标模型>复制现有模型(用于创建变体或备份)ollama copy llama2:7b llama2:7b-q4_k_m
ollama diff <模型1> <模型2>比较两个模型的差异(参数、文件等)ollama diff llama2:7b llama2:13b
ollama inspect <模型名>查看模型内部结构(层、参数等技术细节)ollama inspect llama2:7b

五、全局选项(适用于所有命令)

选项功能描述示例
--model-path <路径>指定模型存储路径(默认~/.ollamaollama list --model-path /data/models
--verbose启用详细日志输出(调试用)ollama pull llama2:7b --verbose
--config <配置文件>指定自定义配置文件(覆盖默认设置)ollama serve --config /etc/ollama/config.yaml
--timeout <秒数>设置命令超时时间(默认 600 秒)ollama pull llama2:7b --timeout 1200

5.ollama的默认地址

http://localhost:11434

http://www.lryc.cn/news/571431.html

相关文章:

  • VS和VS Code 对比和区别
  • 【图像处理入门】9. 基础项目实战:从去噪到图像加密
  • 计算机视觉课程笔记-机器学习中典型的有监督与无监督学习方法的详细分类、标签空间性质、解释说明,并以表格形式进行总结
  • 论文笔记 <交通灯> IntelliLight:一种用于智能交通灯控制的强化学习方法
  • 2025年- H82-Lc190--322.零钱兑换(动态规划)--Java版
  • 海康威视GigE工业相机的python调用demo
  • 2.8 获取IMU数据与航向锁定
  • Kafka 4.0.0集群部署
  • 二十四、【用户管理与权限 - 篇六】前端动态展现:基于权限的菜单与按钮控制
  • Leetcode-​2537. 统计好子数组的数目​
  • SALMONN-omni论文阅读
  • Datawhale YOLO Master 第1次笔记
  • 利用Enigma Virtual Box将QT生成的软件打包成一个exe可执行文件
  • 第100+42步 ChatGPT学习:R语言实现阈值调整
  • uniapp + vite + ts出现红色波浪线,各种ts报错
  • LeetCode--33.搜索旋转排序数组
  • 探秘KingbaseES在线体验平台:技术盛宴还是虚有其表?
  • List、Queue、Deque、Stack常用方法总结
  • 论文笔记:Trajectory generation: a survey on methods and techniques
  • DELL R730XD服务器调整风扇转速
  • python+uniapp微信小程序的共享雨伞租赁系统
  • [特殊字符]华为总部参观预约|企业通道揭秘
  • MySQL 中 DISTINCT 去重的核心注意事项详解
  • MSPM0G3507学习笔记(二) 超便捷配置led与按键
  • ffmpeg webm 透明通道视频转成rgba图片
  • 基于最新豆包大模型1.6实现 ArXiv Paper Reading MCP与Agent构建
  • C++ map代码练习 1、2、priority_queue基础概念、对象创建、数据插入、获取堆顶、出队操作、大小操作,自定义结构、代码练习 1 2
  • 电机及驱动器的安全、性能和能效认证
  • 02 ( chrome 浏览器插件, 立马翻译), 搭建本地 api
  • c++学习-多态