当前位置: 首页 > news >正文

Centos Ollama + Deepseek-r1+Chatbox运行环境搭建

Centos Ollama + Deepseek-r1+Chatbox运行环境搭建

  • 内容介绍
    • 下载ollama
    • 在Ollama运行DeepSeek-r1模型
    • 使用chatbox连接ollama api

内容介绍

你好! 这篇文章简单讲述一下如何在linux环境搭建 Ollama + Deepseek-r1。并在本地安装的Chatbox中进行远程调用

下载ollama

  1. 登录官网https://ollama.comollama官网
  2. 选择linux操作系统在这里插入图片描述
  3. 根据官方给的命令行,在linux系统安装Ollama
curl -fsSL https://ollama.com/install.sh | sh
  1. 查看Ollama运行在这里插入图片描述
  2. 关闭Ollama服务
 sudo systemctl stop ollama
  1. 修改ollama.service文件,在【service】中增加两行
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
  1. 重启Ollama服务
systemctl daemon-reload  	
systemctl restart ollama

在Ollama运行DeepSeek-r1模型

  1. 在ollama官网中查找合适的deepseek-r1模型,我这里选择的最小配置1.5b在这里插入图片描述
  2. 在控制台界面运行对应的指令,启动deepseek-r1模型
ollama run deepseek-r1:1.5b

使用chatbox连接ollama api

  1. 在chatbox官网中,下载安装chatbox
    在这里插入图片描述
  2. 在设置页面,选择Ollama API,并设置相应的API地址以及模型在这里插入图片描述
  3. 现在chabox可以进行聊天了在这里插入图片描述
http://www.lryc.cn/news/532930.html

相关文章:

  • ReactNative进阶(五十九):存量 react-native 项目适配 HarmonyOS NEXT
  • go并发和并行
  • 一种解决SoC总线功能验证完备性的技术
  • Web3 与区块链:开启透明、安全的网络新时代
  • c#中Thread.Join()方法的经典示例
  • 深入了解越权漏洞:概念、危害与防范
  • MySQL 数据库编程-C++
  • dl学习笔记(9):pytorch数据处理的完整流程
  • wps中的vba开发
  • 力扣 LCR 078 合并K个升序链表
  • 【hive】记一次hiveserver内存溢出排查,线程池未正确关闭导致
  • React Native 开发 安卓项目构建工具Gradle的配置和使用
  • IntelliJ IDEA新版本的底部version control(或git)里local change窗口显示配置修改详细教程
  • MySQL三大日志——binlog、redoLog、undoLog详解
  • MCU应用踩坑笔记(ADC 中断 / 查询法)
  • 32.日常算法
  • 通过docker安装部署deepseek以及python实现
  • 批量提取word表格数据到一个excel
  • 使用 Axios 获取用户数据并渲染——个人信息设置
  • DeepSeek在FPGA/IC开发中的创新应用与未来潜力
  • 【GitLab CI/CD 实践】从 0 到 1 搭建高效自动化部署流程
  • 【DeepSeek-R1训练笔记】随手记录一些训练log
  • 【自开发工具介绍】SQLSERVER的ImpDp和ExpDp工具04
  • 「全网最细 + 实战源码案例」设计模式——策略模式
  • [MoeCTF 2022]baby_file
  • 【AI日记】25.02.07 探索开辟第二战场
  • path 路径模块
  • SpringBoot中的多环境配置管理
  • mac下生成.icns图标
  • 关于JS继承的七种方式和理解