DeepSeekR1之五_RAGFlow中配置DeepSeekR1模型时错误问题及处理

DeepSeekR1之五_RAGFlow中配置DeepSeekR1模型时错误问题及处理

文章目录

  • DeepSeekR1之五_RAGFlow中配置DeepSeekR1模型时错误问题及处理
  • 1. RAGFlow配置DeepSeekR1错误
  • 2. 问题排查
    • 1. 问题排查
    • 2. 原因分析
  • 3. 问题解决
    • 1. 更改Ollama监听端口使其在所有域名上都生效
    • 2. 退出Ollama
    • 3. 重新打开Ollama
  • 4. 再次配置问题解决

1. RAGFlow配置DeepSeekR1错误

提示 : 102

Fail to access model(deepseek-r1:1.5b).ERROR: [Errno 111] Connection refused

DeepSeekR1之五_RAGFlow中配置DeepSeekR1模型时错误问题及处理_第1张图片

2. 问题排查

1. 问题排查

排查Ollama是否正常运行,输入 http://127.0.0.1:11434 如下

DeepSeekR1之五_RAGFlow中配置DeepSeekR1模型时错误问题及处理_第2张图片

经查 ollama运行正常

2. 原因分析

出现这个问题,是因为我们的RAGFlow搭建在Docker容器里面,如果没有做端口穿透的话,RAG就会尝试访问容器内的11434端口,从而造成访问失败。

3. 问题解决

1. 更改Ollama监听端口使其在所有域名上都生效

新建一个环境变量,具体配置如下:

变量名:OLLAMA_HOST

变量值::11434

端口可以任意修改,冒号前保持为空相当于在所有IPv4IPv6地址上监听

DeepSeekR1之五_RAGFlow中配置DeepSeekR1模型时错误问题及处理_第3张图片

2. 退出Ollama

在操作系统右下角的通知面板中找到Ollama图标并点击然后找到Quit Ollama退出

3. 重新打开Ollama

从应用程序中打开Ollama即可

4. 再次配置问题解决

注意:基础URL中的IP地址一定要写成IPV4地址,如192.168.31.13,如果写成127.0.0.1则也会出现102错误问题

DeepSeekR1之五_RAGFlow中配置DeepSeekR1模型时错误问题及处理_第4张图片

点击确定按钮后,提示更新成功,如下图

DeepSeekR1之五_RAGFlow中配置DeepSeekR1模型时错误问题及处理_第5张图片

你可能感兴趣的:(DeepSeek-R1,Ollama,AI大模型托管平台,LLM)