如何使用Python-LangChain框架构建Structured Chat ReAct智能体并与ZeroShot ReAct对比?

摘要:LangChain 实战:Structured Chat ReAct 智能体原理与实现(对比 ZeroShot ReAct) 在基于大模型构建智能体(Agent)的过程中,ReAct 作为经典的推理 + 执行范式,被广泛应
LangChain 实战:Structured Chat ReAct 智能体原理与实现(对比 ZeroShot ReAct) 在基于大模型构建智能体(Agent)的过程中,ReAct 作为经典的推理 + 执行范式,被广泛应用于工具调用、逻辑推理、多步任务编排等场景。而 LangChain 内置的两种核心 ReAct 实现 ——ZeroShot ReAct 与 Structured Chat ReAct,在实际落地中经常被混淆。本文将结合实战经验,清晰拆解 Structured Chat ReAct 的设计思想、核心优势、与 ZeroShot ReAct 的本质区别,以及完整实现思路。
一、什么是 Structured Chat ReAct? Structured Chat ReAct 是 LangChain 专门为生产级稳定工具调用设计的 ReAct 智能体。它的核心定位是:强约束、结构化、低解析失败率,让 LLM 严格按照固定格式进行推理与工具调用,彻底解决自由文本输出带来的解析不稳定问题。 与传统的自由文本思考不同,Structured Chat ReAct 强制模型以标准化结构输出每一步决策,全程可解析、可追踪、可稳定执行。
二、Structured Chat ReAct 核心特点 1. 强结构化输出,全程可控 模型不再输出自由文本形式的思考与动作,而是严格遵循统一结构输出,每一步动作都清晰、规范、无歧义。 2. 基于聊天消息结构(Chat Message) 使用 System / Human / AI 标准对话模板,更符合当前主流对话模型的输入习惯,指令遵循率更高。 3. 工具调用稳定、鲁棒性强 格式固定、解析明确,大幅降低因模型输出乱码、多余文字、思考前缀导致的执行失败,适合正式项目使用。 4. 天然支持多参数复杂工具 结构化设计使其可以轻松扩展到多参数、多类型工具场景,扩展性远优于文本格式的智能体。
三、Structured Chat ReAct 与 ZeroShot ReAct 核心区别 很多开发者在初次使用 LangChain 时,都会疑惑:同样是 ReAct,两者到底差在哪里?这里用最直观的方式总结差异: 1. 输出格式不同 ZeroShot ReAct:基于自由文本,通过 Thought/Action/Action Input 文本行输出,依赖正则匹配提取内容,容易出错。 Structured Chat ReAct:基于结构化输出,格式严格统一,每一步动作都规范可解析。 2. 消息结构不同 ZeroShot ReAct:使用普通文本模板,无明确对话角色区分。 Structured Chat ReAct:使用标准聊天模板(System、Human、AI),更适配对话模型。 3. 解析稳定性不同 ZeroShot ReAct:解析依赖文本规则,模型一旦乱输出就会失败。 Structured Chat ReAct:解析稳定可靠,适合高要求的生产环境。 4. 使用场景不同 ZeroShot ReAct:适合简单任务、快速验证、学习演示。 Structured Chat ReAct:适合正式项目、复杂工具链、高稳定性要求场景。
四、Structured Chat ReAct 实现思路 1. 模型选择 优先选择指令遵循能力强、结构化输出稳定的模型,避免使用会自动增加思考标签的模型,保证格式纯净。 2. 工具定义 定义可被智能体调用的功能工具,例如获取当前时间、数学计算、数据库查询、API 请求等,并为每个工具提供清晰名称与描述。 3. 构建结构化聊天提示词 使用标准对话模板构建提示词,明确告诉模型: 可用工具列表 必须遵守的输出格式 禁止输出多余内容(如思考前缀、解释文字) 任务完成后的结束格式 提示词的约束强度直接决定智能体稳定性。 4. 创建 Structured Chat 智能体 使用 LangChain 提供的专用构造函数,将模型、工具、提示词三者绑定,生成可直接执行的智能体。 5. 执行与调度 通过智能体执行器运行任务,开启日志便于调试,设置最大迭代次数避免死循环,同时开启解析容错,提升整体健壮性。 执行过程中,智能体会自动完成:理解用户意图 → 选择工具 → 执行工具 → 整理结果 → 返回最终答案,全程无需人工干预。
五、实战效果总结 在实际运行中,Structured Chat ReAct 表现出明显优势: 指令遵循率极高 工具调用步骤清晰透明 几乎不会出现格式解析失败 日志干净、易于调试 扩展多工具时非常稳定 对比传统 ZeroShot ReAct,Structured Chat ReAct 更像是工业级的智能体实现,而前者更适合教学与快速验证。
六、适用场景推荐 需要稳定调用多种工具的 AI 助手 多步骤逻辑推理、数据计算类任务 对输出格式有强约束的系统 生产环境中不允许频繁执行失败的场景 基于本地模型部署的智能体系统 代码实现: # -*- coding: utf-8 -*- import os from dotenv import load_dotenv from langchain.agents import AgentExecutor, create_structured_chat_agent from langchain_core.tools import Tool from langchain_openai import ChatOpenAI from langchain_core.prompts import ChatPromptTemplate from datetime import datetime import re import json # 加载环境变量 load_dotenv() # ======================== # 1. 配置 LLM # ======================== DEEPSEEK_API_KEY = "123" # 替换为实际的 API Key llm = ChatOpenAI( api_key=DEEPSEEK_API_KEY, base_url="http://192.168.0.100:8000/v1", # Deepseek 的 API 基础地址 model="Qwen3-235B-A22B", # Deepseek 对话模型(可选:deepseek-chat-pro 等高级模型) temperature=0.1, # 温度参数(0-1,越低越稳定) max_tokens=1024 # 最大生成 tokens ) # ======================== # 2. 工具定义 # ======================== def get_current_time(input_str: str = "") -> str: """获取当前系统时间""" return f"当前时间:{datetime.now().strftime('%Y年%m月%d日 %H:%M:%S')}" def calculate_math_expression(expression: str) -> str: """安全计算数学表达式""" try: if not re.match(r'^[\d+\-*/().\s]+$', expression): return "表达式包含非法字符" result = eval(expression, {"__builtins__": {}}, {}) return f"计算结果:{result}" except: return "计算失败" tools = [ Tool( name="GetCurrentTime", func=get_current_time, description="获取当前系统时间,输入为空字符串" ), Tool( name="CalculateMathExpression", func=calculate_math_expression, description="计算数学表达式" ) ] # ======================== # 3. 【关键修复】超强约束 Prompt,禁止输出 标签 # ======================== prompt = ChatPromptTemplate.from_messages([ ("system", """ 你必须只输出纯 JSON,**绝对禁止输出 、思考过程、解释文字、中文说明等任何内容**。 可用工具: {tools} 工具名称: {tool_names} 【输出格式 严格遵守】 {{"action":"工具名","action_input":"输入内容"}} 完成任务后输出: {{"action":"Final Answer","action_input":"直接回答结果"}} 禁止任何多余文字!只输出 JSON! """), ("human", "{input}"), ("ai", "{agent_scratchpad}"), ]) # ======================== # 4. 创建 Agent # ======================== agent = create_structured_chat_agent(llm, tools, prompt) agent_executor = AgentExecutor( agent=agent, tools=tools, verbose=True, handle_parsing_errors=True, # 容错解析错误 max_iterations=3, ) # ======================== # 5. 测试 # ======================== if __name__ == "__main__": print("🔍 任务1:获取当前时间") result1 = agent_executor.invoke({"input": "现在几点了?只告诉我结果"}) print("✅ 最终答案:", result1["output"]) print("\n" + "="*60 + "\n") print("🧮 任务2:数学计算") result2 = agent_executor.invoke({"input": "计算 100*(25+15)/4 - 80 等于多少?"}) print("✅ 最终答案:", result2["output"]) 注意:有的大模型不理解json的输出会报错,要选择合适的大模型 结果输出: 🔍 任务1:获取当前时间 > Entering new AgentExecutor chain... {"action":"GetCurrentTime","action_input":""}当前时间:2026年04月09日 11:05:05{"action":"Final Answer","action_input":"现在是2026年04月09日 11:05:05"} > Finished chain. ✅ 最终答案: 现在是2026年04月09日 11:05:05 ============================================================ 🧮 任务2:数学计算 > Entering new AgentExecutor chain... {"action":"CalculateMathExpression","action_input":"100*(25+15)/4 - 80"}计算结果:920.0{"action":"Final Answer","action_input":"100*(25+15)/4 - 80 等于 920"} > Finished chain. ✅ 最终答案: 100*(25+15)/4 - 80 等于 920 更多学习资料尽在 老虎网盘资源