当前位置: 首页 > article >正文

本地部署dify+ragflow+deepseek ,结合小模型实现故障预测,并结合本地知识库和大模型给出维修建议

1.准备工作

使用ollama 拉取deepseek-r1:7b

官网下载ollama

ollama run deepseek-r1:7b

ollama list

Ragflow专注于构建基于检索增强生成(RAG)的工作流,强调模块化和轻量化,适合处理复杂文档格式和需要高精度检索的场景。Dify则旨在降低大型语言模型(LLM)应用开发的门槛,提供低代码甚至无代码的开发体验,适合快速构建和部署多种AI应用。

因此文档处理采用Ragflow , 模型部署和agent 开发,采用dify。

dify 本地部署:可参考我的另一篇文章window 系统 使用ollama + docker + deepseek R1+ Dify 搭建本地个人助手_windows系统下 dify+ollama+deepseekr1如何训练-CSDN博客

ragflow 本地部署:可参考如下文章

RAGFlow超详细安装指南 | 构建自己的本地知识库_ragflow 安装-CSDN博客

假设通过lot 采集的现场数据,存储在mysql 数据库中,这里以泵设备维护为例:

同时我们准备了离心泵设备维护手册、技术原理等文档

预测小模型 :

为模拟真实生产场景,我们使用fastapi 构建了2个接口:

get 接口用于读取数据库中的实时数据

post 接口接收get 数据,并带入小模型中,实现预测

注意:Dify运行在Docker容器中,而FastAPI服务在宿主机上通过VSCode启动。这种设置下,Dify容器内的应用无法直接通过127.0.0.1访问宿主机上的服务,因为127.0.0.1在容器内指的是容器自己的回环接口,而不是宿主机的。

因此需要将127.0.0.1 改成host.docker.internal:

2.使用dify 搭建离心泵智能诊断助手

最后,可以看一下,使用dify 工作流搭建的离心泵智能诊断助手:

以上,只是一个简单的demo 示例,如需在真实场景中落地使用,还需考虑:

1.ollama更加轻量化,默认使用q4进行量化适合资源受限的环境,适合单机低并发,可以用cpu。vllm支持多机多卡分布式扩展,属于生产级的高性能推力框架,等必须使用英伟达gpu,cuda的环境配置有技术门槛,不像ollama可以一键运行。

2.针对不同的数据,选择不同的分块方式,针对于图片,可选择知识图谱功能。

http://www.lryc.cn/news/2379970.html

相关文章:

  • SECERN AI提出3D生成方法SVAD!单张图像合成超逼真3D Avatar!
  • 深入探索:Core Web Vitals 进阶优化与新兴指标
  • c/c++的opencv开闭操作
  • 【物联网】 ubantu20.04 搭建L2TP服务器
  • winrar 工具测试 下载 与安装
  • PLC组网的方法、要点及实施全解析
  • 网络安全深度解析:21种常见网站漏洞及防御指南
  • 【FAQ】HarmonyOS SDK 闭源开放能力 —Vision Kit (3)
  • Java大厂面试实战:Spring Boot与微服务场景中的技术点解析
  • 从零启动 Elasticsearch
  • 比较两个用于手写体识别的卷积神经网络(CNN)模型
  • Linux利用多线程和线程同步实现一个简单的聊天服务器
  • 【计网】作业5
  • 15、Python布尔逻辑全解析:运算符优先级、短路特性与实战避坑指南
  • Nginx基础知识
  • Vue-监听属性
  • python fastapi + react, 写一个图片 app
  • nginx集成防火墙ngx_waf的docker版
  • vscode c++编译onnxruntime cuda 出现的问题
  • sts下载安装
  • 中服云生产线自动化智能化调度生产系统:打造智能制造新标杆
  • next.js实现项目搭建
  • Redisson 四大核心机制实现原理详解
  • 云鼎入鼎系统:一站式电商管理解决方案
  • Leetcode134加油站
  • 关于Android Studio for Platform的使用记录
  • Linux的内存泄漏问题及排查方法
  • uniapp 微信小程序 获取openId
  • 隧道结构安全在线监测系统解决方案
  • Docker 运维管理