当前位置: 首页 > news >正文

Windows/Linux系统 Ollama部署deepseek 大模型

Ollama 是一个开源工具,专门用于在本地计算机上运行和操作大型语言模型(LLM)

官方下载网站(https://ollama.ai/)

Windows系统安装方法

建议命令行安装(默认安装会直接安装到C盘)

OllamaSetup.exe/DIR=D:\software\ollama

大模型下载地址 -- 按需求下载  libraryBrowse Ollama's library of models.https://ollama.com/library/命令行导入大模型:

# 导入大模型
ollama create deepseek8b -f Modelfile # 查看
ollama list# 运行
ollama run deepseek8b

Modelfile 文件包含目标大模型路径

 FROM H:\2025-deepseek\llm_model\Deepseek8B\DeepSeek-R1-Distill-Llama-8B-Q4_K_M.gguf

 效果展示:

启用远程访问

默认仅限本地访问,如需远程调用:

# 开放防火墙端口
New-NetFirewallRule -DisplayName "Ollama API" -Direction Inbound -Action Allow -Protocol TCP -LocalPort 11434# 启动 Ollama 时绑定到所有网络
ollama serve --host 0.0.0.0

 API接口 Python调用

import requestsresponse = requests.post("http://localhost:11434/api/generate",json={"model": "deepseek8b","prompt": "你运行的大模型是那个版本,简洁回答","stream": True,}
)
print(response.json()['response'])

嗯,我现在需要分析一下这个用户的问题。他们说:“你运行的大模型是那个版本,简洁回答是最好的。”看起来用户是在询问我当前使用的模型版本,并且希望得到一个简明扼要的回答。

.......

</think>

我是由深度求索公司独立运行的DeepSeek-R1-Lite-Preview模型。

Linux系统安装方法

直接下载二进制
# 下载最新版 Ollama
curl -L https://ollama.ai/download/ollama-linux-amd64 -o ollamatar -xf ollama-linux-amd64.tgz# 移动到系统路径
sudo mv bin/ollama /usr/local/bin/# 赋予执行权限
chmod +x /usr/local/bin/ollama

启动 Ollama 服务

# 启动服务(前台运行)
ollama serve# 或作为后台服务(需 systemd)
cat <<EOF | sudo tee /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Restart=always
RestartSec=3[Install]
WantedBy=default.target
EOF# 启动并设置开机自启
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

测试可用性 

下载预训练模型(例如 phi)
ollama pull phi

验证模型运行

# 交互式测试
ollama run phi "How to check disk space in Red Hat?"

启用本地 API 接口

Ollama 默认提供 REST API(端口 11434):

# 测试 API
curl http://localhost:11434/api/generate -d '{"model": "phi","prompt": "Hello"
}'
API 接口示例
  • 对话模式

curl http://localhost:11434/api/chat -d '{"model": "phi","messages": [{ "role": "user", "content": "Who are you?" }]
}'

使用 Python 调用 API

import requestsresponse = requests.post("http://localhost:11434/api/generate",json={"model": "phi", "prompt": "Explain RPM packages"}
)
print(response.json()["response"])

常见问题

  1. GPU 加速
    安装 NVIDIA 驱动和 CUDA,添加 --gpus all 参数(需 Docker 运行)。

  2. 端口冲突
    修改启动参数 ollama serve --host 0.0.0.0:11435

  3. 模型存储路径
    默认在 ~/.ollama/models,可通过环境变量 OLLAMA_MODELS 修改。

http://www.lryc.cn/news/573277.html

相关文章:

  • 面试题-定义一个函数入参数是any类型,返回值是string类型,如何写出这个函数,代码示例
  • 跨标签页通信(三):Web Storage
  • C# WPF常用调试工具汇总
  • 如何定时发布WordPress文章(多种方法)
  • 【Redis】深入理解 Redis 事务:命令、应用与实战案例
  • CertiK联创顾荣辉将于港大活动发表演讲,分享Web3安全与发展新视角
  • C#测试调用ClosedXML根据批注设置excel单元格内容
  • 企业公用电脑登录安全管控的终极方案:ASP操作系统安全登录管控方案
  • 亚马逊认证考试系列 - 第一部份:基础服务 - AWS SAA C03
  • 客户端面经
  • 决策树:化繁为简的智能决策利器
  • 【Kubernetes】从零搭建K8s集群:虚拟机环境配置全指南(DNS/网络/防火墙/SELinux全解析一站式配置图文教程)
  • 题解:P11501 [ROIR 2019] 探险队(Day 2)
  • FPGA四十年创新:因仿真加速而生,AI加速而盛!
  • 【RTP】基于mediasoup的RtpPacket的H.264打包、解包和demo 2:含扩展
  • 11.RSTP快速生成树协议深度剖析:结合华为eNSP模拟器的完整实验方案
  • 为什么要BRE
  • LLM-201: OpenHands与LLM交互链路分析
  • 【基础算法】二分(二分查找 + 二分答案)
  • 华为云Flexus+DeepSeek征文|体验华为云ModelArts快速搭建Dify-LLM应用开发平台并创建b站视频总结大模型
  • Vue3 + TypeScript 中 let data: any[] = [] 与 let data = [] 的区别
  • C++ 内存分配器的作用
  • AI+预测3D新模型百十个定位预测+胆码预测+去和尾2025年6月21日第115弹
  • 【舞蹈】编排:如何对齐拍子并让小节倍数随BPM递减
  • 56-Oracle SQL Tuning Advisor(STA)
  • hot100——第六周
  • MagnTek MT6816-ACD 一款基于各向异性磁阻(AMR)技术的磁性角度传感器 IC
  • wordpress外贸独立站常用留言表单插件 contact form 7
  • 探索 Oracle Database 23ai 中的 SQL 功能
  • 小程序右上角○关闭事件