当前位置: 首页 > news >正文

全流程安装DeepSeek开源模型

目录

  • 配置要求
  • 安装Ollama
  • 选择大模型
  • 安装大模型
  • 对话
  • 备注

配置要求

我的电脑配置为:

CPU:i7 12代
GPU:3080
内存:32g
磁盘:1T

以上配置运行情况:

运行ollama run deepseek-r1:7b模型无压力,CPU/GPU使用率在 10% 左右。
运行ollama run deepseek-r1:32b模型输出明显变慢,大概 1 秒 2 ~4个 Token,CPU/GPU使用率在 70% 左右。

ChatGpt给出的部署推荐配置如下:

1. DeepSeek-R1 系列(轻量级部署)

适用于个人开发者、小型研究团队或资源有限的服务器。

模型版本参数量显存需求推荐配置
DeepSeek-R1-1.5B1.5B8GB+RTX 3060 (12GB) / RTX 4060 Ti (16GB)
DeepSeek-R1-7B7B24GB+RTX 3090 / 4090 (24GB) / A6000 (48GB)
DeepSeek-R1-14B14B40GB+RTX 4090 (24GB, 量化后可跑) / A100 (40GB)
DeepSeek-R1-32B32B80GB+A100 80GB / H100 (80GB)
DeepSeek-R1-70B70B128GB+2×A100 80GB (或更大GPU集群)

建议:

  • 7B及以下的模型可以在高端消费级显卡上运行(如4090),但需要使用 4-bit/8-bit 量化 降低显存占用(可用
    bitsandbytes)。
  • 14B以上的模型推荐使用 专业级显卡(A100, H100),或者 多卡并行 方案。

2. DeepSeek-V3 系列(高性能部署)

适用于企业、学术机构或大规模推理应用。

模型版本参数量显存需求推荐配置
DeepSeek-V3 (37B 激活参数)37B128GB+A100 80GB ×2 / H100 80GB
DeepSeek-V3 (671B 总参数)671B1.5TB+H100 80GB ×16+ (或更大GPU集群)

建议:

  • DeepSeek-V3 37B 可以在多张 A100 80GB 上运行(如 2×A100 80GB),建议采用 TPU 或多卡并行(FSDP, ZeRO) 进行优化。
  • DeepSeek-V3 671B 需要 云端或超算集群,适用于 数据中心 或 高端AI研究实验室。

实测 3080的 gpu也可以运行 32b模型,只是输出会慢一些,大概 1 秒 2 ~4个 Token。

安装Ollama

安装DeepSeek首先需要安装一个Ollama,这个软件相当于运行DeepSeek模型的底层,没有这个底层就没办法跑DeepSeek AI模型。

下载地址:

https://ollama.com/

点击下载windows版本:

在这里插入图片描述

点击Install

在这里插入图片描述
默认在c盘,不能修改,需要5G的磁盘大小。

安装好了以后在开始菜单可以查看有没有Ollama应用
在这里插入图片描述

选择大模型

直接命令安装:

DeepSeek提供的模型如下

版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)
ollama run deepseek-r1:1.5b版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要
4.7GB空余空间)
ollama run deepseek-r1:7b版本:8b,(需要4.9GB空余空间)
ollama run deepseek-r1:8b版本:14b,(需要9GB空余空间)
ollama run deepseek-r1:14b版本:32b,(需要20GB空余空间)
ollama run deepseek-r1:32b版本:70b,(需要43GB空余空间)
ollama run deepseek-r1:70b版本:671b,(需要404GB空余空间)
ollama run deepseek-r1:671b

官网选择模型:

打开地址:

https://ollama.com/search

选择Models

在这里插入图片描述

选择deepseek-r1模型,左侧选择模型参数,右侧复制安装命令

在这里插入图片描述

安装大模型

打开终端,如果选择复制7b版本,可以复制如下命令:

ollama run deepseek-r1:7b

在终端内执行

在这里插入图片描述

等待下载完成

在这里插入图片描述

下载结束之后就有一小会儿出现【verifying sha256 digest】,是在检查完整性之类的东西,请耐心等待(模型越大等待时间越长)

在这里插入图片描述
成功之后会提示success

对话

安装成功后会可以直接输入问题按回车提问。

在这里插入图片描述
当然,终端的展示效果还是不太好,这时候就需要安装一下openWebUi,需要docker环境,如果没有安装docker的安装一个docker。

终端执行以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

在这里插入图片描述

等待docker启动成功

在这里插入图片描述

安装完成后通过如下地址访问openWebUi:

http://localhost:3000 

在这里插入图片描述

第一次进入需要设置一下管理员的账号密码。
在这里插入图片描述
随后进入主页,左侧会展示当前我们运行的模型。然后你就可以尽情的问他了。
在这里插入图片描述

备注

查看当前本地ollama有的模型命令:

ollama list

在这里插入图片描述
运行已有模型命令:

ollama run 模型名称

示例:

>ollama run deepseek-r1:7b

在这里插入图片描述

可供下载的模型:

版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)
ollama run deepseek-r1:1.5b版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要
4.7GB空余空间)
ollama run deepseek-r1:7b版本:8b,(需要4.9GB空余空间)
ollama run deepseek-r1:8b版本:14b,(需要9GB空余空间)
ollama run deepseek-r1:14b版本:32b,(需要20GB空余空间)
ollama run deepseek-r1:32b版本:70b,(需要43GB空余空间)
ollama run deepseek-r1:70b版本:671b,(需要404GB空余空间)
ollama run deepseek-r1:671b
http://www.lryc.cn/news/533585.html

相关文章:

  • 人工智能领域-CNN 卷积神经网络 性能调优
  • 人工智能A*算法与CNN结合- CNN 增加卷积层的数量,并对卷积核大小进行调整
  • 机器学习中常用的评价指标
  • Windows安装cwgo,一直安装的是linux平台的
  • GitHub Pages + Jekyll 博客搭建指南(静态网站)
  • 21.[前端开发]Day21-HTML5新增内容-CSS函数-BFC-媒体查询
  • C++SLT(五)——list
  • 网络安全ITP是什么 网络安全产品ips
  • 评估大模型(LLM)摘要生成能力:方法、挑战与策略
  • 《PYTHON语言程序设计》(2018版)1.20修改这道题,利用类的方式(二) 接近成功....(上)
  • USB子系统学习(四)使用libusb读取鼠标数据
  • 【产品小白】用户调研的需求是否都采纳?
  • 软件测试就业
  • qt部分核心机制
  • 【RocketMQ】RocketMq之ConsumeQueue深入研究
  • 如今物联网的快速发展对hmi的更新有哪些积极影响
  • linux 性能60秒分析
  • Redisson全面解析:从使用方法到工作原理的深度探索
  • neo4j-解决导入数据后出现:Database ‘xxxx‘ is unavailable. Run :sysinfo for more info.
  • 51单片机之引脚图(详解)
  • Hangfire.NET:.NET任务调度
  • 深入解析:React 事件处理的秘密与高效实践
  • 开源像素字体,可用于独立游戏开发
  • 【论文阅读】Comment on the Security of “VOSA“
  • 了解传输层TCP协议
  • flask实现用户名查重,重复的用户名阻止注册,以及如何优化
  • ASP.NET Core对JWT的封装
  • wordpressAI工具,已接入Deepseek 支持自动生成文章、生成图片、生成长尾关键词、前端AI窗口互动、批量采集等
  • Ollama部署 DeepSeek-R1:70B 模型的详细步骤
  • PAT乙级( 1009 说反话 1010 一元多项式求导)C语言版本超详细解析