当前位置: 首页 > news >正文

【linux】在 Linux 服务器上部署 DeepSeek-r1:70b 并通过 Windows 远程可视化使用

【linux】在 Linux 服务器上部署 DeepSeek-r1:70b 并通过 Windows 远程可视化使用

【承接商业广告,如需商业合作请+v17740568442】

文章目录

    • 【linux】在 Linux 服务器上部署 DeepSeek-r1:70b 并通过 Windows 远程可视化使用
      • 个人配置详情
      • 一、安装ollama
      • 二、下载deepseek版本模型
      • 三、在 Linux 服务器上配置 Ollama 以允许远程访问
      • 四、 在 Windows 系统上连接到远程 Ollama 服务
      • 五、在远程服务器上部署 DeepSeek 并指定使用特定的 GPU

个人配置详情

DeepSeek 是一款基于深度学习的高性能 AI 模型,广泛应用于自然语言处理、图像识别等领域。它能够为用户提供强大的计算能力和智能解决方案。然而,由于 DeepSeek 模型的复杂性和资源需求,通常需要在高性能的 Linux 服务器上进行部署。而对于许多用户来说,日常使用环境往往是 Windows 系统。因此,实现从 Windows 系统远程访问部署在 Linux 服务器上的 DeepSeek,成为了许多开发者和研究人员的迫切需求。

我的服务器是有六张2080ti,四张是魔改版22GB,服务器用的是Ubuntu20.04版本,现在通过在服务器部署deepseek70b跟32b,然后在windows本地远程使用服务器部署的deepseek

一、安装ollama

1、安装依赖项
在部署之前,确保你的 Linux 系统已安装以下依赖项:

sudo apt update
sudo apt install -y curl

2、安装 Ollama
使用以下命令安装 Ollama:

curl -fsSL https://ollama.com/install.sh | sh

3、验证是否安装成功

ollama --version

在这里插入图片描述

二、下载deepseek版本模型

ollama run
http://www.lryc.cn/news/538380.html

相关文章:

  • visutal studio 2022使用qcustomplot基础教程
  • Linux:线程概念、理解、控制
  • Postman如何流畅使用DeepSeek
  • K8S下载离线安装包所需文件
  • 探索Hugging Face:开源AI社区的核心工具与应用实践
  • 【操作系统】深入理解Linux物理内存
  • npm 私服使用介绍
  • 安全筑基,智能赋能:BeeWorks IM引领企业协同新纪元
  • 水务+AI应用探索(一)| FastGPT+DeepSeek 本地部署
  • [JVM篇]垃圾回收器
  • SQL Server:查看当前连接数和最大连接数
  • DeepSeek应用——与PyCharm的配套使用
  • 【第15章:量子深度学习与未来趋势—15.3 量子深度学习在图像处理、自然语言处理等领域的应用潜力分析】
  • 多模态基础模型训练笔记-第一篇InternVL-g
  • MyBatis:动态SQL高级标签使用方法指南
  • 使用grafana v11 建立k线(蜡烛图)仪表板
  • ubuntu 安装 Redis
  • 利用docker-compose一键创建并启动所有容器
  • mysql开启gtid并配置主从
  • redis sentinel模式 与 redis 分片集群 配置
  • 2025最新在GitHub上搭建个人图床,保姆级图文教程,实现图片高效管理
  • Web后端 - Maven管理工具
  • 【python语言应用】最新全流程Python编程、机器学习与深度学习实践技术应用(帮助你快速了解和入门 Python)
  • 《探秘Windows 11驱动开发:从入门到实战》
  • 搭建Deepseek推理服务
  • Golang GC 三色标记法
  • 重新出发的LLM本地部署——DeepSeek加持下的Ollama+OpenWebUI快速部署
  • 【第3章:卷积神经网络(CNN)——3.5 CIFAR-10图像分类】
  • Django后台新建管理员
  • 【第12章:深度学习与伦理、隐私—12.2 数据隐私保护与差分隐私技术的实现与应用】