dify1.0.0版本以上添加ollama本地化模型报错或无反应(dify 1.3及以上版本需如何有效更新)

目前dify版本更新速度很快,4月时dify连续版本升级、修复不少问题,截止5月1日,最新版本为dify1.31

Dify+ollama是大语言模型(LLM)本地化部署常用的AI发布和运用框架。早些时候dify无法直接从远程仓库拉取下来,升级起来有些麻烦。近期可以直接访问,这大大方便了版本的更新维护。(2025.5.1时  GitHub · Build and ship software on a single, collaborative platform · GitHub 可以直接访问了!)

docker部署dify 1.0时,若直接用Ollama加载本地化模型可能会报错,很多案例都提到了配置dify/docker文件夹下的.env文件需要增加配置,如增加:

 # 启用自定义模型
 CUSTOM_MODEL_ENABLED=true
 # 指定 Ollama 的 API 地址(根据部署环境调整 IP)
 OLLAMA_API_BASE_URL=host.docker.internal:11434

实测确实解决了dify1.0等环境下添加ollama模型的问题。到了1.2以及1.3版本后,情况有所变化。

按照官网 Docker Compose 部署 - Dify Docs<

你可能感兴趣的:(AI应用实战,AI本地化部署,ollama,dify)