当前位置: 首页 > news >正文

本地化部署DeepSeek-R1

本文环境搭建均基于免费工具,感谢开源。

一、下载工具并安装

1. Ollama:最新版本 0.5.7

官网在这里 

https://ollama.com/download

但是下载太慢,得换个思路

https://sourceforge.net/projects/ollama.mirror/

2.Chatbox

https://chatboxai.app/zh

二、安装配置Ollama

安装一路next,默认是装到C盘

(1)如果C盘空间吃紧,需要新建环境变量OLLAMA_MODELS

windows下更改模型默认下载路径:默认路径在C:Users<username>.ollama/models模型一般占用都比较大,换到其他盘去高级系统设置-环境变量-新建OLLAMA_MODELS,重启Ollama生效。

注:已经下载的模型文件直接搬到新的路径下就可以使用,不需要再下载。

文件在models/blobs中

(2)在Ollama主页下载DeepSeek模型

deepseek-r1

根据自己的硬件设备选择不同的版本下载

我的是t490s的本子,没有独显,试了下14b勉强可以跑。

ollama pull deepseek-r1:14b

(3)配置环境变量 OLLAMA_HOST、OLLAMA_ORIGINS

默认情况下,Ollama服务仅在本地运行,不对外提供服务。

如果要提供对外服务,需要新增两个环境变量

保存设置,重启Ollama服务。

小结下Ollama环境变量的作用:

三、安装配置Chatbox

1. 一路next,安装完成。

2.配置:

(1)选择“模型”-“Ollama API”-“deepseek-r1:14b”

选择“显示”-“语言”-“简体中文”。

注: 如果“模型”下拉菜单为空,重启Ollama服务,重新打开Chatbox再试一下。

四、本地运行

本地化运行因为硬件比较拉跨,速度有点慢,其他体验完美。

DeepSeek确实对中文的理解更深更细腻,推荐大家使用。

http://www.lryc.cn/news/529832.html

相关文章:

  • 验证二叉搜索数(98)
  • StarRocks BE源码编译、CLion高亮跳转方法
  • 数模测评:doubao1.5>deepseek-v3>gpt-o1
  • 晴,初三,年已过
  • Vue3 v-bind 和 v-model 对比
  • Smalltalk语言是何物?面向对象鼻祖Simula的诞生?Simula和Smalltalk有什么区别?面向对象设计?
  • KVM/ARM——基于ARM虚拟化扩展的VMM
  • Windows系统中Docker可视化工具对比分析,Docker Desktop,Portainer,Rancher
  • 【架构面试】二、消息队列和MySQL和Redis
  • 算法【完全背包】
  • 二叉树的遍历
  • 1.31 实现五个线程的同步
  • three.js+WebGL踩坑经验合集(6.1):负缩放,负定矩阵和行列式的关系(2D版本)
  • 【开源免费】基于SpringBoot+Vue.JS体育馆管理系统(JAVA毕业设计)
  • 《大数据时代“快刀”:Flink实时数据处理框架优势全解析》
  • antdesignvue统计数据源条数、计算某列合计值、小数计算不精确多了很多小数位
  • 02.05、链表求和
  • dmfldr实战
  • Kafka 副本机制(包含AR、ISR、OSR、HW 和 LEO 介绍)
  • 爬虫基础(二)Web网页的基本原理
  • 外网访问禅道软件项目管理系统
  • Python 梯度下降法(五):Adam Optimize
  • 笔试-二进制
  • springboot 2.7.6 security mysql redis jwt配置例子
  • FreeRTOS从入门到精通 第十六章(任务通知)
  • TensorFlow 简单的二分类神经网络的训练和应用流程
  • 无人机图传模块 wfb-ng openipc-fpv,4G
  • .cc扩展名是什么语言?C语言必须用.c为扩展名吗?主流编程语言扩展名?Java为什么不能用全数字的文件名?
  • 【MyDB】4-VersionManager 之 3-死锁及超时检测
  • 【Linux】使用管道实现一个简易版本的进程池