最近发现一款可以对标甚至可能超越GPT-Researcher的AI深度研究应用,Deer-Flow(Deep Exploration and Efficient Research Flow)作为字节跳动近期开源的重量级项目,正以其模块化、灵活性和人机协同能力引发广泛关注。该项目基于 LangGraph 和 LangChain 框架构建,旨在通过整合语言模型(LLM)与专业工具链(如网络搜索、爬虫、代码执行),实现端到端的复杂研究流程自动化,同时为开发者提供高度可扩展的二次开发空间。
尽管两者均致力于自动化研究,Deer-Flow 与 GPT-Researcher 在架构与应用场景上存在显著差异:
架构设计
GPT-Researcher 以 Plan-and-Solve 为核心,通过并行处理子任务提升效率,但依赖单一代理执行流程,最新的GPT-Researcher是支持多Agent执行任务,也是使用LangGraph,但总体流程还是没有变;
而 Deer-Flow 的 多智能体系统 通过分工协作(如研究员负责信息收集、编码员处理技术任务)增强了复杂任务的处理能力与可追溯性,过程有“反思”,中途可干预,结果可修正。
工具链与扩展性
GPT-Researcher 虽支持多种 LLM 配置,但其工具集成相对有限,需依赖外部插件扩展功能。Deer-Flow 则内置 模块化工具链(如爬虫、代码执行),并支持无缝集成企业级 MCP 平台,适用性更广。
内容生成与交互
GPT-Researcher 专注于生成文本报告,而 Deer-Flow 提供 多模态输出(音频、PPT)及交互式编辑功能,更贴近实际研究场景的多样性需求。
个人还是比较看好Deer-Flow未来的发展,它凭借其多智能体架构、工具链深度整合及开源生态,为学术研究、商业分析等领域提供了高效且可定制的解决方案。相较于 GPT-Researcher,它在复杂任务处理、多模态输出及本土化适配方面更具优势,展现了开源框架在AI研究自动化中的独特价值。
废话就说到这里,下面我们一起来了解一下它。
以下引用DeerFlow 的官方网站内容。
由于平台不支持github地址直接播放,只能请小伙伴自行前往观看。官方视频演示地址 https://github.com/user-attachments/assets/f3786598-1f2a-4d07-919e-8b99dfa1de3e
在官方的演示中,展示了如何使用 DeerFlow:
DeerFlow 使用 Python 开发,并配有用 Node.js 编写的 Web UI。为确保顺利的设置过程,我们推荐使用以下工具:
uv
:
简化 Python 环境和依赖管理。uv
会自动在根目录创建虚拟环境并为您安装所有必需的包—无需手动安装 Python 环境。
nvm
:
轻松管理多个 Node.js 运行时版本。
pnpm
:
安装和管理 Node.js 项目的依赖。
确保您的系统满足以下最低要求:
3.12+
22+
# 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 安装依赖,uv将负责Python解释器和虚拟环境的创建,并安装所需的包
uv sync
# 使用您的API密钥配置.env
# Tavily: https://app.tavily.com/home
# Brave_SEARCH: https://brave.com/search/api/
# 火山引擎TTS: 如果您有TTS凭证,请添加
cp .env.example .env
# 查看下方的"支持的搜索引擎"和"文本转语音集成"部分了解所有可用选项
# 为您的LLM模型和API密钥配置conf.yaml
# 请参阅'docs/configuration_guide.md'获取更多详情
cp conf.yaml.example conf.yaml
# 安装marp用于PPT生成
# https://github.com/marp-team/marp-cli?tab=readme-ov-file#use-package-manager
brew install marp-cli
可选,通过pnpm安装 Web UI 依赖:
cd deer-flow/web
pnpm install
请参阅配置指南获取更多详情。
[!注意]
在启动项目之前,请仔细阅读指南,并更新配置以匹配您的特定设置和要求。
运行项目的最快方法是使用控制台 UI。
# 在类bash的shell中运行项目
uv run main.py
本项目还包括一个 Web UI,提供更加动态和引人入胜的交互体验。
[!注意]
您需要先安装 Web UI 的依赖。
# 在开发模式下同时运行后端和前端服务器
# 在macOS/Linux上
./bootstrap.sh -d
# 在Windows上
bootstrap.bat -d
打开浏览器并访问http://localhost:3000
探索 Web UI。
在web
目录中探索更多详情。
DeerFlow 支持多种搜索引擎,可以在.env
文件中通过SEARCH_API
变量进行配置:
Tavily(默认):专为 AI 应用设计的专业搜索 API
.env
文件中设置TAVILY_API_KEY
DuckDuckGo:注重隐私的搜索引擎
Brave Search:具有高级功能的注重隐私的搜索引擎
.env
文件中设置BRAVE_SEARCH_API_KEY
Arxiv:用于学术研究的科学论文搜索
要配置您首选的搜索引擎,请在.env
文件中设置SEARCH_API
变量:
# 选择一个:tavily, duckduckgo, brave_search, arxiv
SEARCH_API=tavily
搜索和检索
MCP 无缝集成
人在环中
报告后期编辑
DeerFlow 实现了一个模块化的多智能体系统架构,专为自动化研究和代码分析而设计。该系统基于 LangGraph 构建,实现了灵活的基于状态的工作流,其中组件通过定义良好的消息传递系统进行通信。
系统采用了精简的工作流程,包含以下组件:
协调器:管理工作流生命周期的入口点
规划器:负责任务分解和规划的战略组件
研究团队:执行计划的专业智能体集合:
报告员:研究输出的最终阶段处理器
运行测试套件:
# 运行所有测试
make test
# 运行特定测试文件
pytest tests/integration/test_workflow.py
# 运行覆盖率测试
make coverage
# 运行代码检查
make lint
# 格式化代码
make format
DeerFlow 使用 LangGraph 作为其工作流架构。您可以使用 LangGraph Studio 实时调试和可视化工作流。
DeerFlow 包含一个langgraph.json
配置文件,该文件定义了 LangGraph Studio 的图结构和依赖关系。该文件指向项目中定义的工作流图,并自动从.env
文件加载环境变量。
# 如果您没有uv包管理器,请安装它
curl -LsSf https://astral.sh/uv/install.sh | sh
# 安装依赖并启动LangGraph服务器
uvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.12 langgraph dev --allow-blocking
# 安装依赖
pip install -e .
pip install -U "langgraph-cli[inmem]"
# 启动LangGraph服务器
langgraph dev
启动 LangGraph 服务器后,您将在终端中看到几个 URL:
在浏览器中打开 Studio UI 链接以访问调试界面。
在 Studio UI 中,您可以:
当您在 Studio UI 中提交研究主题时,您将能够看到整个工作流执行过程,包括:
DeerFlow 支持 LangSmith 追踪功能,帮助您调试和监控工作流。要启用 LangSmith 追踪:
确保您的 .env
文件中有以下配置(参见 .env.example
):
LANGSMITH_TRACING=true
LANGSMITH_ENDPOINT="https://api.smith.langchain.com"
LANGSMITH_API_KEY="xxx"
LANGSMITH_PROJECT="xxx"
通过运行以下命令本地启动 LangSmith 追踪:
langgraph dev
这将在 LangGraph Studio 中启用追踪可视化,并将您的追踪发送到 LangSmith 进行监控和分析。
您也可以使用 Docker 运行此项目。
首先,您需要阅读下面的配置部分。确保.env
和.conf.yaml
文件已准备就绪。
其次,构建您自己的 Web 服务器 Docker 镜像:
docker build -t deer-flow-api .
最后,启动运行 Web 服务器的 Docker 容器:
# 将deer-flow-api-app替换为您首选的容器名称
docker run -d -t -p 8000:8000 --env-file .env --name deer-flow-api-app deer-flow-api
# 停止服务器
docker stop deer-flow-api-app
您也可以使用 docker compose 设置此项目:
# 构建docker镜像
docker compose build
# 启动服务器
docker compose up
DeerFlow 现在包含一个文本转语音(TTS)功能,允许您将研究报告转换为语音。此功能使用火山引擎 TTS API 生成高质量的文本音频。速度、音量和音调等特性也可以自定义。
您可以通过/api/tts
端点访问 TTS 功能:
# 使用curl的API调用示例
curl --location 'http://localhost:8000/api/tts' \
--header 'Content-Type: application/json' \
--data '{
"text": "这是文本转语音功能的测试。",
"speed_ratio": 1.0,
"volume_ratio": 1.0,
"pitch_ratio": 1.0
}' \
--output speech.mp3
以下示例展示了 DeerFlow 的功能:
OpenAI Sora 报告 - OpenAI 的 Sora AI 工具分析
Google 的 Agent to Agent 协议报告 - Google 的 Agent to Agent (A2A)协议概述
什么是 MCP? - 对"MCP"一词在多个上下文中的全面分析
比特币价格波动 - 最近比特币价格走势分析
什么是 LLM? - 对大型语言模型的深入探索
医疗保健中的 AI 采用:影响因素 - 影响医疗保健中 AI 采用的因素分析
量子计算对密码学的影响 - 量子计算对密码学影响的分析
要运行这些示例或创建您自己的研究报告,您可以使用以下命令:
# 使用特定查询运行
uv run main.py "哪些因素正在影响医疗保健中的AI采用?"
# 使用自定义规划参数运行
uv run main.py --max_plan_iterations 3 "量子计算如何影响密码学?"
# 在交互模式下运行,带有内置问题
uv run main.py --interactive
# 或者使用基本交互提示运行
uv run main.py
# 查看所有可用选项
uv run main.py --help
应用程序现在支持带有英文和中文内置问题的交互模式:
启动交互模式:
uv run main.py --interactive
选择您偏好的语言(English 或中文)
从内置问题列表中选择或选择提出您自己问题的选项
系统将处理您的问题并生成全面的研究报告
DeerFlow 包含一个人在环中机制,允许您在执行研究计划前审查、编辑和批准:
计划审查:启用人在环中时,系统将在执行前向您展示生成的研究计划
提供反馈:您可以:
[ACCEPTED]
接受计划[EDIT PLAN] 添加更多关于技术实现的步骤
)自动接受:您可以启用自动接受以跳过审查过程:
auto_accepted_plan: true
API 集成:使用 API 时,您可以通过feedback
参数提供反馈:
{
"messages": [{ "role": "user", "content": "什么是量子计算?" }],
"thread_id": "my_thread_id",
"auto_accepted_plan": false,
"feedback": "[EDIT PLAN] 包含更多关于量子算法的内容"
}
应用程序支持多个命令行参数来自定义其行为:
感谢您的阅读,以上就是本期的全部内容啦,感兴趣的小伙伴可以自行前往DeerFlow 的官方网站了解更多详情。