当前位置: 首页 > news >正文

在CentOS服务器上部署DeepSeek R1

在CentOS服务器上部署DeepSeek R1,并通过公网IP与其进行对话,可以按照以下步骤操作:

一、环境准备
系统要求:
CentOS 8+(需支持AVX512指令集)。
硬件配置:
GPU版本:NVIDIA驱动520+,CUDA 11.8+。
CPU版本:至少16核处理器,64GB内存。
存储空间:原始模型需要30GB,量化后约8-20GB。
安装基础工具:
更新系统并安装必要的编译工具:

一定要买GPU服务器。

sudo yum update -y
sudo yum install -y cmake g++ python3-devel

二、安装Ollama及DeepSeek R1模型
安装Ollama核心组件:
curl -fsSL https://ollama.com/install.sh | sh
这里的下载速度可能会特别慢,建议自己配hosts。

安装模型转换工具:

pip3.8 install llama-cpp-python[server] --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu

这一步可能依赖版本,g++版本不兼容一直导致报错,建议通过docker方式进行部署。
我自己用的是pip3.8,可根据pip版本自行调整。

下载DeepSeek R1原始模型:

http://www.lryc.cn/news/530797.html

相关文章:

  • 算法随笔_36: 复写零
  • MoonBit 编译器(留档学习)
  • 使用 DeepSeek-R1 与 AnythingLLM 搭建本地知识库
  • 网络工程师 (13)时间管理
  • 【xdoj-离散线上练习】T251(C++)
  • 定时器按键tim_key模版
  • Kanass快速安装配置教程(入门级)
  • 无用知识之:std::initializer_list的秘密
  • 论文阅读笔记 —— 英文论文常见缩写及含义
  • 实验9 JSP访问数据库(二)
  • [c语言日寄]C语言类型转换规则详解
  • Airflow:选择合适执行器扩展任务执行
  • 使用冒泡排序模拟实现qsort函数
  • AI大模型开发原理篇-4:神经概率语言模型NPLM
  • Eigen::Tensor使用帮助
  • git基础使用--3---git安装和基本使用
  • html的字符实体和颜色表示
  • OpenAI发布o3-mini:免费推理模型,DeepSeek引发的反思
  • Zemax 中带有体素探测器的激光谐振腔
  • 大模型训练(5):Zero Redundancy Optimizer(ZeRO零冗余优化器)
  • C# 实现 “Hello World” 教程
  • LabVIEW无线齿轮监测系统
  • IM 即时通讯系统-01-概览
  • 【人工智能】 在本地运行 DeepSeek 模型:Ollama 安装指南
  • 【Linux系统】信号:信号保存 / 信号处理、内核态 / 用户态、操作系统运行原理(中断)
  • 探索 Copilot:开启智能助手新时代
  • 解锁豆瓣高清海报(二) 使用 OpenCV 拼接和压缩
  • 我用Ai学Android Jetpack Compose之Card
  • NLP深度学习 DAY4:Word2Vec详解:两种模式(CBOW与Skip-gram)
  • 论文阅读(十):用可分解图模型模拟连锁不平衡