AI 的出现极大的提升了生产力,对我们程序员来说,积极的拥抱新技术是非常有必要的。今天我们基于 LangChain
框架,创建一个我们自己的 Agent
, 并集成我们自己的 MCP
工具。
体验一把 LangChain
。
我的系统是 Windows
。 在开始之前,我们需要:
• 使用 Ollama
运行 deepseek-r1:7b
• 使用 Node.js
开发的 MCP Weather Service
工具
• 使用 Flask
提供 Web API 服务
整体的调用如下:
最终实现的效果如下:
我们这里有两个场景:
• 用户询问天气,调用 Weather-MCP
• 用户输入其他问题,调用 Chat Tool
与大模型对话
让我们带着疑问去了解
项目是如何实现智能路由的?从复杂的
LangChain Agent
到简单的SimpleAgent
的演进过程?
本项目经历了从复杂到简单的重要演进过程:
初始方案:传统 LangChain Agent
• 使用 ZERO_SHOT_REACT_DESCRIPTION
类型的 Agent
• 依赖 LLM
自动解析 ReAct
格式
• 遇到了 LLM
格式不一致、无限循环等问题
最终方案:SimpleAgent
• 基于关键词匹配的智能路由
• 避免复杂的 ReAct
格式解析
• 更加稳定和可预测
用户通过 /api/query
接口发送问题,例如:"深圳的天气怎么样?"
app.py
中的 Flask
路由接收到请求后,将用户的 query
传递给 SimpleAgent
:
# app.py
@app.route('/api/query', methods=['POST'])
def query_agent():
data = request.get_json()
query = data.get('query', '')
result = agent.query(query)
return jsonify(result)
在 agent.py
中实现了 SimpleAgent
类:
class SimpleAgent:
def__init__(self):
self.weather_tool = WeatherTool()
self.chat_tool = ChatTool()
# 天气相关关键词
self.weather_keywords = ["天气", "气温", "温度", "下雨", "晴天", "阴天", "刮风",
"weather", "temperature", "rain", "sunny", "cloudy", "wind"]
def_is_weather_query(self, query: str) -> bool:
"""判断是否为天气查询"""
query_lower = query.lower()
returnany(keyword in query_lower for keyword inself.weather_keywords)
defquery(self, user_input: str) -> dict:
"""处理用户查询"""
ifself._is_weather_query(user_input):
result = self.weather_tool.run(user_input)
return {
"success": True,
"result": result,
"intermediate_steps": [("weather", "Weather data retrieved successfully")],
"query": user_input
}
else:
result = self.chat_tool.run(user_input)
return {
"success": True,
"result": result,
"intermediate_steps": [],
"query": user_input
}
遇到的问题:
1. LLM 格式不一致:deepseek-r1-7b
经常不能完美遵循 ReAct
格式
2. 无限循环:LLM
有时会持续调用工具而不给出最终答案
3. 解析错误:Action Input
格式错误(如 "city: Beijing" 而不是 "Beijing")
4. 序列化问题:复杂的 Action
对象无法 JSON
序列化
SimpleAgent 的优势:
• 可靠性:避免复杂的 ReAct
格式解析问题
• 性能:直接关键词匹配比 LLM
路由更快
• 可维护性:更容易调试和扩展
• 可预测性:不同查询类型的行为一致
tools/weather_tool.py
中的天气工具:
class WeatherTool:
def__init__(self):
self.mcp_url = "http://localhost:8081/weather"
defrun(self, city: str) -> str:
"""查询天气信息"""
# 清理参数格式
if":"in city:
city = city.split(":")[-1].strip()
try:
response = requests.get(f"{self.mcp_url}?city={city}", timeout=10)
if response.status_code == 200:
data = response.json()
# 直接处理 JSON 数据,格式化为自然语言
weather_info = data.get('weather', {})
returnf"{city} current weather: {weather_info.get('description', 'unknown')}, temperature {weather_info.get('temperature', 'N/A')}°C"
else:
returnf"Unable to get weather information for {city}"
except Exception as e:
return f"Weather service error: {str(e)}"
tools/chat_tool.py
中的聊天工具:
class ChatTool:
def__init__(self):
self.llm = Ollama(
base_url="http://localhost:11434",
model="deepseek-r1:7b"
)
defrun(self, query: str) -> str:
"""处理一般对话"""
try:
response = self.llm.invoke(query)
# 清理 标签
cleaned_response = re.sub(r'.*? ', '', response, flags=re.DOTALL)
return cleaned_response.strip()
except Exception as e:
return f"Chat service error: {str(e)}"
通过这个项目,我们学到了:
1. 简单往往更好:复杂的 ReAct Agent 在实际应用中可能不如简单的关键词匹配稳定
2. 错误处理很重要:需要处理各种边界情况和异常
3. 工具设计原则:每个工具应该职责单一,易于测试
4. 渐进式开发:从复杂方案开始,逐步简化到可用方案
项目核心用到的技术:
• Flask —— Web API
框架
• LangChain —— Agent
框架和工具封装
• Ollama —— 本地 LLM
服务
• MCP Protocol —— 模型上下文协议
• JavaScript —— 前端交互
核心 LangChain 模块:
• langchain.tools
—— 工具(Tool
)封装
• langchain_community.llms
—— LLM
(如 Ollama
)集成
这些模块共同实现了"用户输入 → 智能路由 → 工具调用 → 结果返回"的全流程。
项目地址:https://github.com/LouisYi-n/mcp-demo/tree/main/langchain/zdlang-agent
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业
?”“谁的饭碗又将不保了?
”等问题热议不断。
事实上,抢你饭碗的不是AI,而是会利用AI的人。
继科大讯飞、阿里、华为
等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?
不如成为「掌握AI工具的技术人
」,毕竟AI时代,谁先尝试,谁就能占得先机!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。
基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!
第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 有需要的小伙伴,可以 扫描下方二维码领取↓↓↓
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
目标:了解AI大模型的基本概念、发展历程和核心原理。
内容:
目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
内容:
目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
内容:
目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
内容:
这份 LLM大模型资料
包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 有需要的小伙伴,可以 扫描下方二维码领取↓↓↓