当前位置: 首页 > news >正文

安装和使用 Ollama(实验环境windows)

下载安装

下载

https://ollama.com/download/windows

安装

Windows 安装

  • 如果直接双击 OllamaSetup.exe 安装,默认会安装到 C 盘,如果需要指定安装目录,需要通过命令行指定安装地址,如下:

    # 切换到安装目录
    C:\Users\lisiyu>D:
    # 执行安装
    D:\ollama>OllamaSetup.exe  /DIR="d:\ollama\"
    

设置模型存储路径

要更改 Ollama 存储下载模型的位置,而不是使用你的主目录,可以在你的用户账户中设置环境变量 OLLAMA_MODELS。

如下,先在安装 ollama 目录下创建 models 文件夹,然后在 windows 下设置环境变量:

在这里插入图片描述

快捷使用

  • 查看 ollama 版本
C:\Users\lisiyu>ollama --version
ollama version is 0.5.7
  • 查看 ollama 已下载模型列表
C:\Users\lisiyu>ollama list
NAME    ID    SIZE    MODIFIED
  • 拉取模型

模型列表:https://ollama.com/search

PS C:\Users\lisiyu\Desktop> ollama pull deepseek-r1:8b
pulling manifest
pulling 6340dc3229b0...  26% ▕█████████████████████████████████████    ▏ 1.3 GB/4.9 GB  3.5 MB/s  17m32s 
  • 运行模型(如果模型未拉取,默认会先执行 pull 拉取)
C:\Users\lisiyu>ollama run deepseek-r1:8b
>>> Send a message (/? for help)# 此时进入对话窗口
# 如果要退出,输入 /bye 执行退出
# 退出后,ollama 也会在后台运行
  • 更多命令,参考帮助说明:
C:\Users\lisiyu>ollama help
Large language model runnerUsage:ollama [flags]ollama [command]Available Commands:serve       Start ollamacreate      Create a model from a Modelfileshow        Show information for a modelrun         Run a modelstop        Stop a running modelpull        Pull a model from a registrypush        Push a model to a registrylist        List modelsps          List running modelscp          Copy a modelrm          Remove a modelhelp        Help about any commandFlags:-h, --help      help for ollama-v, --version   Show version informationUse "ollama [command] --help" for more information about a command.

Ollama API

  • 默认访问地址:https://localhost:11434 或者 https://127.0.0.1:11434

  • 允许外网访问:

    由于默认只能在本机访问,所以,要允许外网访问,要监听 0.0.0.0 地址。

    且有些场景需要指定端口。

    此时可以通过设置环境变量 OLLAMA_HOST 来定义,如下:

    在这里插入图片描述
    在这里插入图片描述

  • Ollama 支持的 API:

参考官方文档:https://ollama.readthedocs.io/api/

API URL请求方式请求参数响应参数API 说明CURL 请求示例
/api/generatePOSTmodel(模型名称)、prompt(提示文本)、可选参数(如 streamsuffix 等)response(生成的文本)、tokens(生成的 token 数量)等生成文本curl http://localhost:11434/api/generate -d '{"model": "llama2", "prompt": "为什么天空是蓝色的?"}'
/api/chatPOSTmodel(模型名称)、messages(消息列表,包含角色和内容)response(回复内容)、tokens(生成的 token 数量)等聊天对话curl http://localhost:11434/api/chat -d '{"model": "llama2", "messages": [{"role": "user", "content": "你好!"}]}'
/api/pullPOSTname(模型名称)、可选参数(如 insecurestream 等)返回拉取进度或模型信息拉取模型curl http://localhost:11434/api/pull -d '{"name": "llama2"}'
/api/deleteDELETEname(模型名称)返回状态码(200 OK404 Not Found删除模型curl -X DELETE http://localhost:11434/api/delete -d '{"name": "llama2"}'
/api/tagsGET返回模型列表获取本地模型列表curl http://localhost:11434/api/tags
/api/showPOSTname(模型名称)、可选参数 verbose(是否返回详细信息)返回模型详细信息,包括 modelfileparameterstemplate查看模型信息curl http://localhost:11434/api/show -d '{"name": "llama2"}'
/api/copyPOSTsource(源模型名称)、destination(目标模型名称)返回状态码(200 OK404 Not Found复制模型curl http://localhost:11434/api/copy -d '{"source": "llama2", "destination": "llama2-backup"}'
/api/createPOSTname(新模型名称)、modelfile(模型文件内容)返回创建状态或错误信息创建自定义模型curl http://localhost:11434/api/create -d '{"name": "llama2-custom", "modelfile": "FROM llama2\nSYSTEM You are a helpful assistant."}'

注意

尽管在本地使用 AI 是一个美好的想象,感觉上是免费使用 AI,还不用担心网络卡顿、数据安全。
但实际上,大部分好用的模型,在消费级的机器上,根本跑不了。
能跑的都是很小规模的模型,效果很差。
所以,使用本地化 AI 的前提,一定是要有足够资源的机器。
我的实验机器,是 14 核 32 G,N卡 4080,8G 显存。
目前本地部署的 AI,勉强能用的就是 llama3.2 和 deepseek-r1:8b 感觉还不错。
其他的模型用起来,效果真的不忍直视。
当然,本地这些模型的使用,我没有专门做测评,如果有专门做了测评的朋友,非常欢迎在此分享!

http://www.lryc.cn/news/532584.html

相关文章:

  • (一)DeepSeek大模型安装部署-Ollama安装
  • 【大数据技术】搭建完全分布式高可用大数据集群(ZooKeeper)
  • 前端学习-tab栏切换改造项目(三十一)
  • 高性能 AI 处理器亲和性调度算法实现
  • mq消息丢了,有哪些现象?有什么补救措施
  • Java面试场景题分享
  • 《ISO/SAE 21434-2021 道路汽车--网络安全工程》标准解读
  • 【BUUCTF逆向题】[MRCTF2020]Transform
  • 漏洞挖掘 | 基于mssql数据库的sql注入
  • Java 中 LinkedList 的底层源码
  • 使用服务器部署DeepSeek-R1模型【详细版】
  • k8s,1.修改容器内主机名和/etc/hosts 文件,2.root特权容器,3.pod安全策略(基于名称空间
  • MSPFN 代码复现
  • 除了console.error,还有什么更好的错误处理方式?
  • 力扣.270. 最接近的二叉搜索树值(中序遍历思想)
  • Yageo国巨的RC系列0402封装1%电阻库来了
  • wait/notify/join/设计模式
  • Windows Docker笔记-Docker拉取镜像
  • 七大排序思想
  • intra-mart实现简易登录页面笔记
  • SpringBoot整合RocketMQ
  • 深入理解 YUV Planar 和色度二次采样 —— 视频处理的核心技术
  • 项目顺利交付,几个关键阶段
  • 第七天 开始学习ArkTS基础,理解声明式UI编程思想
  • windows C++ Fiber (协程)
  • 游戏引擎学习第89天
  • 2025新鲜出炉--前端面试题(一)
  • 教程 | i.MX RT1180 ECAT_digital_io DEMO 搭建(一)
  • Pyecharts系列课程04——折线图/面积图(Line)
  • 变压器-000000