当前位置: 首页 > news >正文

Ollama+DeepSeek本地大模型部署

1、Ollama

官网:https://ollama.com/

Ollama可以干什么? 可以快速在本地部署和管理各种大语言模型,操作命令和dokcer类似。

mac安装ollama:

# 安装ollama
brew install ollama# 启动ollama服务(默认11434端口,模型文件在 ~/.ollama)
ollama serve

windows安装ollama:

  • https://www.cnblogs.com/skystrive/p/18584237

Ollama常用命令:‌

  • 启动Ollama服务‌:ollama serve
  • 从模型文件创建模型‌:ollama create
  • 显示模型信息‌:ollama show 模型名称
  • 运行模型‌:ollama run 模型名称
  • 拉取模型‌:ollama pull 模型名称
  • 将模型推送到私服ollama push
  • 列出本地模型‌:ollama list
  • 复制模型‌:ollama cp
  • 删除模型‌:ollama rm 模型名称
  • 获取有关Ollama任何命令的帮助信息‌:ollama help

2、DeepSeek R1

打开一个新的命令行窗口,使用ollama安装DeepSeek R1模型:

ollama run deepseek-r1:1.5b

测试命令行方式对话:

3、Maxkb接入Ollama

官网:https://maxkb.cn/

MaxKB = Max Knowledge Base,是一款基于大语言模型和 RAG 的开源知识库问答系统,广泛应用于智能客服、企业内部知识库、学术研究与教育等场景。

docker方式安装:

docker run -d --name=maxkb --restart=always -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages cr2.fit2cloud.com/1panel/maxkb

浏览器访问:http://localhost:8089/ui/login

  • 用户名:admin
  • 密码:MaxKB123…

http://www.lryc.cn/news/530168.html

相关文章:

  • 在 WSL2 中重启 Ubuntu 实例
  • 【ts + java】古玩系统开发总结
  • 机器学习周报-文献阅读
  • LabVIEW微位移平台位移控制系统
  • fpga系列 HDL:XILINX Vivado ILA FPGA 在线逻辑分析
  • 刷题记录 贪心算法-2:455. 分发饼干
  • Android --- CameraX讲解
  • ElasticSearch view
  • list的使用,及部分功能的模拟实现(C++)
  • 联想Y7000+RTX4060+i7+Ubuntu22.04运行DeepSeek开源多模态大模型Janus-Pro-1B+本地部署
  • [Spring] Gateway详解
  • 音叉模态分析
  • BW AO/工作簿权限配置
  • C++ 字母大小写转换两种方法统计数字字符的个数
  • 如何使用 ChatBox AI 简化本地模型对话操作
  • 前端面试笔试题目(一)
  • Docker Hello World
  • UE 5.3 C++ 对垃圾回收的初步认识
  • ARM内核:嵌入式时代的核心引擎
  • 需求分析应该从哪些方面来着手做?
  • 【Unity2D 2022:C#Script】DoTween插件的使用
  • 【Docker】ubuntu中 Docker的使用
  • 【数据结构篇】时间复杂度
  • linux 环境安装 dlib 的 gpu 版本
  • springboot集成钉钉,发送钉钉日报
  • 【机器学习】自定义数据集 使用scikit-learn中svm的包实现svm分类
  • 快速提升网站收录:利用网站历史数据
  • 【Git】初识Git Git基本操作详解
  • Python NumPy(11):NumPy 排序、条件筛选函数
  • AJAX综合案例——图书管理