当前位置: 首页 > news >正文

理解大模型智能体生态:从 Prompt 到 Agent 的完整信息流解析

目录

  • 前言
  • 1 核心组件概览
    • 1.1 用户提示(User Prompt)
    • 1.2 系统提示(System Prompt)
    • 1.3 MCP(Model Context Protocol)
  • 2 AI Agent:让模型拥有“执行力”的大脑
    • 2.1 什么是 AI Agent?
    • 2.2 Agent 的核心工作流程
  • 3 Function Calling 与 Agent Tools:让模型“动手做事”的执行机制
    • 3.1 Function Calling:结构化函数调用能力
    • 3.2 Agent Tools:模型的“外挂能力”
  • 4 一图看懂信息流:Prompt 到 Agent 的完整协同路径
  • 5 角色对照表:概念与功能快速对照
  • 6 实际案例演示:行程规划 Agent
  • 结语

前言

大语言模型(LLM)的应用正从单轮问答走向更复杂的智能体系统,具备“理解需求、拆解任务、调用工具、执行动作”一体化的能力。这个过程中,用户的输入(Prompt)只是开端,大模型如何组织上下文、调用外部工具、完成复杂任务,背后则涉及一整套协同机制。

本文将系统介绍以下关键概念之间的关系与工作原理:

  • User Prompt
  • System Prompt
  • MCP(Model Context Protocol)
  • AI Agent
  • Agent Tools
  • Function Calling
  • 大语言模型(LLM)

我们将通过信息流图与实际示例,展示它们如何协同构建一个“能做事”的 AI 系统。

1 核心组件概览

1.1 用户提示(User Prompt)

这是用户直接发出的自然语言请求,是 AI 交互的起点。

例如:

“帮我制定一份一周的云南旅行计划。”

用户可能并不明确期望模型执行什么样的中间步骤,比如天气查询、景点筛选、路线排序等——但智能体需要自己识别这些任务并分解。

1.2 系统提示(System Prompt)

System Prompt 是系统赋予模型的“角色设定”和“行为规范”,通常用于引导模型的身份、语气、风格及应答范围。

例如:

“你是一位经验丰富的旅行规划师,请根据用户提供的信息推荐科学合理的旅游行程。”

System Prompt 通常在会话开始前由开发者注入,不由用户可见。
在这里插入图片描述

1.3 MCP(Model Context Protocol)

MCP,全称 Model Context Protocol,是一种标准化的上下文组织协议,用于向大模型传递结构化、分层次的上下文信息。

相比传统把全部对话拼成一段长文本的做法,MCP 能以模块化方式组织以下内容:

  • system(系统提示)
  • user(用户请求)
  • assistant(模型历史回答)
  • function_call(调用记录)
  • function_result(工具返回值)
  • memory(长期记忆或知识库引用)
  • tool_list(当前可用工具集)

MCP 让模型在执行任务时,具备对话历史记忆、多轮逻辑追踪、工具调用记录等完整上下文,是 Agent 系统智能行为的关键支撑。
在这里插入图片描述

2 AI Agent:让模型拥有“执行力”的大脑

2.1 什么是 AI Agent?

AI Agent 是运行在大模型之上的智能体框架,具备如下特征:

  • 能理解用户目标和意图
  • 能判断是否需要调用工具
  • 能规划任务步骤并执行
  • 能处理反馈结果并调整策略

例如,在构建一个“行程规划 Agent”时,它不仅能生成路线推荐,还能根据天气情况调整出行顺序,并在必要时调用地图或航班查询 API。

2.2 Agent 的核心工作流程

一个完整的 Agent 交互流程大致如下:

  1. 接收用户请求(User Prompt)
  2. 组合上下文(MCP)
  3. 调用大模型推理是否需要外部信息
  4. 若需外部函数 → 发起 Function Calling 请求
  5. 等待工具调用结果返回
  6. 模型继续生成中间输出或最终回答
  7. 如有需要,进入下一轮任务规划与执行

AI Agent 就像一个“具备逻辑控制的调度器”,在大模型与工具之间做出合理调度。

3 Function Calling 与 Agent Tools:让模型“动手做事”的执行机制

3.1 Function Calling:结构化函数调用能力

Function Calling 是大语言模型(如 GPT-4、文心4.5、通义千问等)新增的重要能力,它允许模型以结构化格式请求调用外部函数或插件。

例如,用户提问:

“明天北京的天气如何?”

模型可能输出如下函数调用请求:

{"function_call": {"name": "get_weather","arguments": {"location": "北京","date": "2025-07-09"}}
}

这个请求不是直接生成回答,而是告诉系统:“我需要这个外部函数的结果,才能回答用户。”
在这里插入图片描述

3.2 Agent Tools:模型的“外挂能力”

Agent Tools 是一组由开发者定义、可供大模型调用的外部能力,可以包括:

  • 第三方 API(如天气、翻译、搜索)
  • 内部服务(如知识库、数据库、图谱查询)
  • 插件(如浏览器、文件分析器)
  • 本地函数(如数学计算、代码执行)

系统中可为 Agent 提供多个工具,每个工具定义:

  • 名称(如 get_weather
  • 输入参数说明
  • 返回结构说明
  • 可见性与调用条件

模型通过 Function Calling 与这些工具互动,Agent 调度这些调用完成更复杂的任务链。

4 一图看懂信息流:Prompt 到 Agent 的完整协同路径

┌──────────────────────────────────────────┐
│                👤 用户                   │
│         发出自然语言请求 (User Prompt)   │
└──────────────────────────────────────────┘│▼
┌──────────────────────────────────────────┐
│        🧠 AI Agent / MCP 构建上下文       │
│ - system:角色定义(System Prompt)      │
│ - user:当前输入                         │
│ - assistant:历史回答                    │
│ - function_result:调用返回              │
│ - tools:可用工具清单                    │
└──────────────────────────────────────────┘│▼
┌──────────────────────────────────────────┐
│        🤖 大语言模型(LLM)               │
│  - 分析上下文                            │
│  - 判断是否调用函数                      │
│  - 输出结构化调用请求(Function Calling)│
└──────────────────────────────────────────┘│┌──────────────┴───────────────┐▼                              ▼
┌───────────────────────┐    ┌────────────────────────────┐
│ 📞 触发函数调用请求     │    │ ✅ 直接生成回答(无需调用) │
│ - JSON结构输出         │    │ - 适用于简单问答             │
└───────────────────────┘    └────────────────────────────┘│▼
┌──────────────────────────────────────────┐
│ 🔧 Agent Tools / APIs / Plugins           │
│ - 实际执行请求                           │
│ - 返回结构化结果                         │
└──────────────────────────────────────────┘│▼
┌──────────────────────────────────────────┐
│ 🤖 LLM 接收工具结果后继续推理              │
│ - 整合结果生成中间/最终回答               │
└──────────────────────────────────────────┘│▼
┌──────────────────────────────────────────┐
│ 👤 用户获得自然语言回答                   │
└──────────────────────────────────────────┘

5 角色对照表:概念与功能快速对照

概念中文含义功能作用
User Prompt用户提示用户提出自然语言请求
System Prompt系统提示设定模型身份与风格,限制任务范围
MCP上下文协议组织多段上下文并提供给模型
LLM大语言模型推理、理解、生成,判断是否调用外部工具
Function Calling函数调用机制模型发出结构化函数请求
Agent Tools可调用工具实际执行函数的组件,可为 API、本地插件等
AI Agent智能体调度器管理任务规划、上下文拼接、模型与工具调度

6 实际案例演示:行程规划 Agent

用户请求:

“我想去云南玩一周,帮我制定一个详细的旅行计划。”

系统响应流程:

  1. MCP构建完整上下文(system + user)
  2. 模型识别任务 → 判断需要天气信息
  3. 发起 Function Calling 请求调用 get_weather
  4. Agent Tool 返回天气数据(如“未来七天晴转多云”)
  5. 模型结合天气推荐路线安排
  6. 输出完整日程安排(城市、交通、住宿、注意事项等)

这个过程中,AI Agent 发挥了调度和控制作用,MCP 提供完整上下文,大模型完成逻辑推理,Function Calling 实现调用,Agent Tools 执行具体任务,最终形成完整闭环。

结语

从 Prompt 到 Agent 的协同机制,标志着大模型应用已经从“生成内容”迈向“执行任务”的新时代。

掌握 MCP(Model Context Protocol) 的组织方式、理解 Function Calling 的调用流程,搭建好 AI Agent 与工具的协作桥梁,是构建复杂智能体系统的基石。

未来,Agent 驱动的大模型系统将在自动化办公、智能助理、教育、科研、软件开发等领域大放异彩,成为 AI 应用的主流范式。现在,正是学习和布局这套机制的最佳时机。

http://www.lryc.cn/news/582522.html

相关文章:

  • LeetCode 1248.统计优美子数组
  • 【读代码】GLM-4.1V-Thinking:开源多模态推理模型的创新实践
  • 大模型面试:如何解决幻觉问题
  • 【python】pyserial 在windows 下卡住的bug
  • 在PPT的文本框中,解决一打字,英文双引号就变成中文了
  • 4.权重衰减(weight decay)
  • NumPy-随机数生成详解
  • 初识单例模式
  • 【网络安全】服务间身份认证与授权模式
  • 【Flutter】面试记录
  • Next.js 实战笔记 2.0:深入 App Router 高阶特性与布局解构
  • 算法训练营DAY29 第八章 贪心算法 part02
  • ubuntu 操作记录
  • Python语言+pytest框架+allure报告+log日志+yaml文件+mysql断言实现接口自动化框架
  • 机制、形式、周期、内容:算法备案抽检复审政策讲解
  • 探索下一代云存储技术:对象存储、文件存储与块存储的区别与选择
  • 光流 | 当前光流算法还存在哪些缺点及难题?
  • ReactNative【实战系列教程】我的小红书 4 -- 首页(含顶栏tab切换,横向滚动频道,频道编辑弹窗,瀑布流布局列表等)
  • 闲庭信步使用图像验证平台加速FPGA的开发:第五课——HSV转RGB的FPGA实现
  • Java连接Emqx实现订阅发布消息
  • 恒创科技:香港站群服务器做seo站群优化效果如何
  • ReactNative【实战】瀑布流布局列表(含图片自适应、点亮红心动画)
  • Rust DevOps框架管理实例
  • ffmpeg下编译tsan
  • iOS 性能测试工具全流程:主流工具实战对比与适用场景
  • cocos2dx3.x项目升级到xcode15以上的iconv与duplicate symbols报错问题
  • CSP-S模拟赛二总结(实际难度大于CSP-S)
  • 力扣 239 题:滑动窗口最大值的两种高效解法
  • Android kotlin 协程的详细使用指南
  • C++--AVL树