当前位置: 首页 > article >正文

本地部署 DeepSeek R1(最新)【从下载、安装、使用和调用一条龙服务】

文章目录

  • 一、安装 Ollama
    • 1.1 下载
    • 1.2 安装
  • 二、下载 DeepSeek 模型
  • 三、使用 DeepSeek
    • 3.1 在命令行环境中使用
    • 3.2 在第三方软件中使用

一、安装 Ollama

1.1 下载

官方网址:Ollama

官网下载很慢,甚至出现了下载完显示 无法下载,需要授权

在这里插入图片描述

目前有两个解决方式:

  1. 复制下载链接,使用迅雷进行下载【右键点击正在下载文件,然后点击复制下载链接】
    在这里插入图片描述

  2. 使用已经下载好的文件,这里分享一下我已经下载好的文件:attachment; filename=OllamaSetup.exe【如果没有会员,下载速度和官网半斤八两就是了】

1.2 安装

  1. 打开下载好的安装程序
    在这里插入图片描述
  2. 点击 Install,等待安装
    在这里插入图片描述
  3. 安装完成后,可以验证一下,是否安装成功,打开命令行【win + R,输入 cmd】,输入 ollama 如果出现下面信息,则安装成功!
    在这里插入图片描述

二、下载 DeepSeek 模型

  1. 访问官网:Ollama ,点击 Models ,在点击 deepseek-r1
    在这里插入图片描述
  2. 在下载之前最好先配置一下环境变量,ollama 默认是下载在 C 盘的,如果要换盘,则需要添加环境变量。
    • 在搜索框中搜索 环境变量,并点击。
      在这里插入图片描述
    • 在 高级 模块,点击 环境变量
      在这里插入图片描述
    • 在 系统变量 模块,点击 新建
      在这里插入图片描述
    • 变量名必须为 OLLAMA_MODELS,变量值可以选择其他盘的一个文件夹【就是你想指定的下载位置】,输入完点击 确定 。
      【配置完重启一下 ollama 】
      【这个变量只能控制模型的下载位置,不能控制 ollama 的下载位置,就算先添加变量,ollama 还是安装在 C 盘,有点蠢的设计】
      在这里插入图片描述
  3. 对于自己的私人电脑,后几个模型就不用考虑了,电脑一般带不动。
    【一般来说,deepseek-r1:xb 中,x 数字越大,模型能力就越强,需要的资源就越大】
    【一个简单的判断方法就是,看显卡的显存和 Size 进行比较,一般 Size 小于等于显存是比较好的】
    【当然实际也可以安装超过显存的,只要内存+显存大于等于 Size 就行,就是可能速度比较慢】【没有显卡那就只能靠内存了】
    在这里插入图片描述
  4. 选择好要下载模型,点击进入到对应模型界面,复制 模型下载指令【我这里选择的是 14 b,记得要安装自己电脑的配置选择】
    在这里插入图片描述
  5. 将复制的命令输入到 cmd 中【 win + R,输入 cmd ,即可打开 cmd 界面】,等待下载
    在这里插入图片描述
  6. 出现 success 一般就表示安装成功了!
    在这里插入图片描述
  7. 可以 Ctrl + d 退出使用,然后输入 ollama list ,可以查看自己已经下载的模型。
    在这里插入图片描述

三、使用 DeepSeek

3.1 在命令行环境中使用

  1. 打开命令行【win + R ,输入 cmd】,输入命令 ollama run deepseek-r1:14b
    【如果是其他模型,改一下参数,比如如果是 8b,则输入命令 ollama run deepseek-r1:8b
    在这里插入图片描述
  2. 输入你的问题
    【简单问题,一般就直接回答出来了,如 ① 所示】
    【复杂问题,就需要进行思考,然后回答,如 ② 所示】
    在这里插入图片描述

3.2 在第三方软件中使用

【可以在第三方软件中接入 API ,例如:Chatbox AI】
【如果想在其他第三方软件中使用,具体可以查看官方的 API 接口文档:Ollama API】

  1. 访问官网:Chatbox AI,下载 Chatbox AI ,
    在这里插入图片描述
  2. 打开下载好的安装程序,点击 下一步
    在这里插入图片描述
  3. 修改 安装位置,点击 安装 ,等待安装完成
    在这里插入图片描述
  4. 点击 完成 ,顺便打开 Chatbox
    在这里插入图片描述
  5. 点击 选用自己的 API Key 或者本地模型
    在这里插入图片描述
  6. 选择 Ollama API
    在这里插入图片描述
  7. 输入 API 地址,点击 获取
    在这里插入图片描述
  8. 选择自己安装的模型,点击 + 号即可
    在这里插入图片描述
  9. 点击新对话
    在这里插入图片描述
  10. 就可以进行正常使用
    在这里插入图片描述
http://www.lryc.cn/news/2397616.html

相关文章:

  • 域名解析怎么查询?有哪些域名解析查询方式?
  • win主机如何结束正在执行的任务进程并重启
  • maven中的maven-resources-plugin插件详解
  • ROS云课基础篇-01-Linux-250529
  • 通俗易懂解析:@ComponentScan 与 @MapperScan 的异同与用法
  • 深入了解 C# 异步编程库 AsyncEx
  • NodeJS全栈开发面试题讲解——P1Node.js 基础与核心机制
  • Vulhub靶场搭建(Ubuntu)
  • C++:参数传递方法(Parameter Passing Methods)
  • 大语言模型的推理能力
  • 基于BERT和GPT2的实现来理解Transformer的结构和原理
  • .net consul服务注册与发现
  • WifiEspNow库函数详解
  • rsync使用守护进程启动服务
  • React 核心概念与生态系统
  • 使用React Native开发新闻资讯类鸿蒙应用的准备工作
  • node-sass 报错
  • Redis的安装与使用
  • Linux服务器运维10个基础命令
  • 2024年数维杯国际大学生数学建模挑战赛C题时间信号脉冲定时噪声抑制与大气时延抑制模型解题全过程论文及程序
  • C# 控制台程序获取用户输入数据验证 不合规返回重新提示输入
  • 【大模型面试每日一题】Day 31:LoRA微调方法中低秩矩阵的秩r如何选取?
  • 使用source ~/.bashrc修改环境变量之后,关闭服务器,在重启,环境变量还有吗?
  • SQL 窗口函数深度解析:ROW_NUMBER 实战指南
  • React从基础入门到高级实战:React 生态与工具 - React 国际化(i18n)
  • leetcode93.复原IP地址:回溯算法中段控制与前导零处理的深度解析
  • TDengine 运维——巡检工具(安装前检查)
  • MySQL主从复制深度解析:原理、架构与实战部署指南
  • [SC]SystemC dont_initialize的应用场景详解(二)
  • 【Linux】权限chmod命令+Linux终端常用快捷键