当前位置: 首页 > news >正文

利用ollama 与deepseek r1大模型搭建本地知识库

1.安装运行ollama

ollama下载
https://ollama.com/download/windows

验证ollama是否安装成功
ollama --version

访问ollama本地地址:
http://localhost:11434/

出现如下界面

ollama运行模型
ollama run llama3.2

ollama常用操作命令

启动 Ollama 服务:
ollama serve

停止 Ollama 服务:
ollama stop

重启 Ollama 服务:
ollama restart

更新 Ollama:
ollama update

拉取模型:
ollama pull <model-name>

eg:   ollama pull llama2

列出本地模型:
ollama list

2.安装deepseek-r1模型

选择合适本地硬件的deepseek-r1模型
https://ollama.com/library/deepseek-r1

运行deepseek-r1:8b模型
allama run deepseek-r1:8b


运行成功进行提问

3.安装Open WebUI :
pip install open-webui


启动 Open WebUI:
open-webui serve

访问open webui:
 http://localhost:8080

出现如下界面,访问成功:

4.搭建本地知识库
    安装本地客户端 cherrystudio或RAGFlow或dify:

     Cherry Studio - 全能的AI助手

    安装词嵌入模型:
   从这个地址搜索 https://ollama.com/shaw/dmeta-embedding-zh
   ollama pull shaw/dmeta-embedding-zh

    配置 cherrystudio:
   1.配置模型与ollama本地访问地址

2.设置默认模型

3.配置知识库

4.导入自己知识体系

5.选择自己搭建的知识库,使用

http://www.lryc.cn/news/537542.html

相关文章:

  • Java短信验证功能简单使用
  • CAS单点登录(第7版)21.可接受的使用政策
  • 53倍性能提升!TiDB 全局索引如何优化分区表查询?
  • Pythong 解决Pycharm 运行太慢
  • 库里存储的数据有大量回车时,该如何进行存取
  • 【devops】Github Actions Secrets | 如何在Github中设置CI的Secret供CI的yaml使用
  • 体验 DeepSeek-R1:解密 1.5B、7B、8B 版本的强大性能与应用
  • 一文说清楚什么是Token以及项目中使用Token延伸的问题
  • 大模型-Tool call、检索增强
  • 【算法】【区间和】acwing算法基础 802. 区间和 【有点复杂,但思路简单】
  • Ubuntu22.04通过Docker部署Jeecgboot
  • HTML4
  • STM32F10X 启动文件完整分析
  • typescript快速入门之安装与运行
  • React源码解读
  • 【DeepSeek-R1】 API申请(火山方舟联网版)
  • 负载均衡集群——LVS-DR配置
  • 数据结构篇
  • 「软件设计模式」建造者模式(Builder)
  • Matlab 机器人 雅可比矩阵
  • DeepSeek 助力 Vue 开发:打造丝滑的面包屑导航(Breadcrumbs)
  • IntelliJ IDEA 2024.1.4版无Tomcat配置
  • chrome://version/
  • 知识图谱数据库 Neo4j in Docker笔记
  • 【动手学强化学习】02多臂老虎机
  • 【网络编程】之Udp网络通信步骤
  • Java 基于 SpringBoot+Vue 的家政服务管理平台设计与实现
  • 架构——Nginx功能、职责、原理、配置示例、应用场景
  • Spring Boot中使用Flyway进行数据库迁移
  • CAS单点登录(第7版)9.属性