本地部署dify+ragflow+deepseek ,结合小模型实现故障预测,并结合本地知识库和大模型给出维修建议

1.准备工作

使用ollama 拉取deepseek-r1:7b

官网下载ollama

ollama run deepseek-r1:7b

ollama list

本地部署dify+ragflow+deepseek ,结合小模型实现故障预测,并结合本地知识库和大模型给出维修建议_第1张图片

Ragflow专注于构建基于检索增强生成(RAG)的工作流,强调模块化和轻量化,适合处理复杂文档格式和需要高精度检索的场景。Dify则旨在降低大型语言模型(LLM)应用开发的门槛,提供低代码甚至无代码的开发体验,适合快速构建和部署多种AI应用。

因此文档处理采用Ragflow , 模型部署和agent 开发,采用dify。

dify 本地部署:可参考我的另一篇文章window 系统 使用ollama + docker + deepseek R1+ Dify 搭建本地个人助手_windows系统下 dify+ollama+deepseekr1如何训练-CSDN博客

ragflow 本地部署:可参考如下文章

RAGFlow超详细安装指南 | 构建自己的本地知识库_ragflow 安装-CSDN博客

假设通过lot 采集的现场数据,存储在mysql 数据库中,这里以泵设备维护为例:

本地部署dify+ragflow+deepseek ,结合小模型实现故障预测,并结合本地知识库和大模型给出维修建议_第2张图片

同时我们准备了离心泵设备维护手册、技术原理等文档

本地部署dify+ragflow+deepseek ,结合小模型实现故障预测,并结合本地知识库和大模型给出维修建议_第3张图片

预测小模型 :

为模拟真实生产场景,我们使用fastapi 构建了2个接口:

get 接口用于读取数据库中的实时数据

post 接口接收get 数据,并带入小模型中,实现预测

注意:Dify运行在Docker容器中,而FastAPI服务在宿主机上通过VSCode启动。这种设置下,Dify容器内的应用无法直接通过127.0.0.1访问宿主机上的服务,因为127.0.0.1在容器内指的是容器自己的回环接口,而不是宿主机的。

因此需要将127.0.0.1 改成host.docker.internal:

2.使用dify 搭建离心泵智能诊断助手

最后,可以看一下,使用dify 工作流搭建的离心泵智能诊断助手:

本地部署dify+ragflow+deepseek ,结合小模型实现故障预测,并结合本地知识库和大模型给出维修建议_第4张图片

以上,只是一个简单的demo 示例,如需在真实场景中落地使用,还需考虑:

1.ollama更加轻量化,默认使用q4进行量化适合资源受限的环境,适合单机低并发,可以用cpu。vllm支持多机多卡分布式扩展,属于生产级的高性能推力框架,等必须使用英伟达gpu,cuda的环境配置有技术门槛,不像ollama可以一键运行。

2.针对不同的数据,选择不同的分块方式,针对于图片,可选择知识图谱功能。

你可能感兴趣的:(语言模型)