华为云Flexus+DeepSeek征文|基于华为云一键部署 Dify-LLM 平台,结合 MCP 工具与 DeepSeek 模型打造智能学习助手
目录
前言
1 华为云一键部署 Dify 平台
1.1 Dify 简介与部署优势
1.2 四步完成部署流程
1.3 设置管理员账号并登录平台
2 MCP 工具广场与 Leecode 模型工具介绍
3 接入自定义 DeepSeek 模型服务
4 插件配置与 Agent 策略构建
5 开发学习小助手应用
5.1 开始节点
5.2 Agent 节点
5.3 直接回复节点
6 应用运行与发布
6.1 预览与测试运行
6.2 启动与正式运行
6.3 网页嵌入与站点集成
6.4 API 接口调用
7 使用体验与总结
结语
前言
随着大模型应用加速落地,企业与开发者对于构建专属智能体的需求愈发迫切。开源平台 Dify 以其高度模块化、支持多种大模型接入及工作流编排等优势,迅速成为构建大模型应用的重要工具。而华为云提供的一键部署能力、ModelArts 模型服务和 MCP 工具广场,则为 Dify 提供了天然的基础设施与插件生态支持。
本文将详细介绍如何通过华为云部署 Dify 平台,并接入 DeepSeek 模型,构建一个具备代码题解能力的“学习小助手”智能应用。内容涵盖部署流程、模型接入、插件配置、Agent 策略设定、工作流搭建以及应用上线全过程,帮助开发者快速掌握基于 Dify 的智能应用开发方法。
1 华为云一键部署 Dify 平台
1.1 Dify 简介与部署优势
Dify 是一个支持多模型接入、插件调用、Agent 工作流的开源大模型平台,适用于企业或开发者构建聊天机器人、知识问答系统、企业智能体等多种大模型应用。其优势在于模块设计灵活、支持可视化流程配置以及对本地化部署和私有化模型的强支持。
华为云基于其资源编排服务(ROS),提供了标准化的一键部署模板,可通过图形化界面快速完成 Dify 平台从计算资源到数据库、从后端服务到前端管理的完整部署,极大简化了搭建难度。用户无需自行搭建环境,即可拥有一个稳定、高效、可拓展的本地大模型应用开发平台。
1.2 四步完成部署流程
通过华为云控制台进入资源编排服务,用户可以选择 Dify 的一键部署模板进行部署。第一步,选择模板类型,可根据需求选择社区版、知识库增强版或 CCE 高可用容器版本。第二步,填写参数信息,包括服务器规格、数据库配置、Redis 密码等。第三步,设置资源栈名称、选择区域及 VPC 网络。第四步,确认所有参数后点击“创建资源栈”,平台会自动完成部署并输出公网访问地址。
平均部署时间约为五分钟,部署成功后用户可访问前端地址设置管理员账号,并进入后台控制台使用平台功能。
1.3 设置管理员账号并登录平台
在访问部署生成的公网地址后,用户需要创建管理员账号并设置初始密码,完成后台系统初始化。
随后即可登录进入 Dify 管理控制台,配置模型、插件、策略并开发实际应用。平台提供模型接入、应用发布、数据分析、用户管理等功能,支持多种场景下的智能体开发与上线运营。
2 MCP 工具广场与 Leecode 模型工具介绍
MCP(Model Context Protocol,模型上下文协议)是一种设计用于协调大模型在复杂任务场景中进行多轮推理、工具调用和上下文共享的协议机制。它旨在解决多工具、多插件协同执行时的数据结构不一致、上下文传递困难、意图解析断裂等问题。MCP 提供标准化接口,可与 Dify 平台的插件机制无缝对接,为开发者提供极大的功能拓展空间。
在众多工具中,Leecode 模型工具是一款专注于算法题分析和代码生成的插件,能够接收自然语言题目描述,并返回解题思路、关键逻辑和参考代码,适合学习类或教育场景。
通过SSE URL连接服务
{
"mcpServers": {
"leetcode-mcp-server": {
"type": "sse",
"url": "https://mcp.api-inference.modelscope.net/10f53db8ec9244/sse"
}
}
}
3 接入自定义 DeepSeek 模型服务
为了实现私有化部署和本地推理能力,可以通过华为云 ModelArts 平台部署 DeepSeek 模型并将其作为 Dify 的主推理模型。
首先,在 ModelArts 中创建新的在线推理服务,选择 DeepSeek 模型镜像或自定义模型训练结果作为服务来源,并配置对应的运行资源与推理参数。部署完成后会生成推理 API 接口地址及认证 Token。
接下来,在 Dify 后台的“模型提供商”配置页添加一个新的模型接入项。填写模型名称、API 地址、调用路径、请求格式和鉴权信息,测试模型是否返回正常响应。
完成配置后,DeepSeek 模型即可在 Dify 平台中作为主模型被调用,支持文本生成、插件指令处理、Agent 推理等所有核心功能,提升整体响应速度与模型安全性。
4 插件配置与 Agent 策略构建
为了构建具有任务执行能力的智能体,Dify 提供了插件机制与 Agent 策略模块,开发者可以在工作流中为模型配置工具插件,并通过决策策略引导模型合理调用工具完成任务。
在 MCP 平台启用 Leecode 模型工具,并在 Dify 插件市场中导入该插件。配置完成后,在插件管理页输入调用路径、API Key、工具描述及调用参数格式等信息,保存后即可用于 Agent 节点中。
5 开发学习小助手应用
基于以上配置,我们将开发一款具备编程题目理解与自动解答能力的智能助手应用。
该应用支持用户输入自然语言题目描述,平台自动判断意图,并调用 DeepSeek 模型与 Leecode 工具完成自动解析与答题。
5.1 开始节点
应用的第一个节点是“开始”,它负责接收用户在网页或接口中输入的自然语言问题。输入内容可以是如“请解一道动态规划的中等难度题目”这样的自由表达,也可以是完整的题干描述。该节点仅作信息接收,不处理任何逻辑判断。
5.2 Agent 节点
在工作流中,第二个节点是 Agent 节点,这是应用的智能决策核心。。
在 Agent 策略设置中,选择 ReAct 作为智能体策略。ReAct 策略允许模型在回答问题的过程中动态判断是否需要工具帮助,并通过调用插件完成特定指令任务。在配置页面,将默认模型设为接入的 DeepSeek,自定义 Agent 指令为:“根据用户输入判断是否为算法类问题,若是则调用 leecode 工具输出分析与代码”。保存后即可作为应用智能逻辑的核心节点使用。
5.3 直接回复节点
最后一个节点为直接回复节点,用于汇总上一节点返回的内容并展示给用户。输出信息通常包括用户输入摘要、模型判断的任务类型、解题思路说明、完整代码块及参考运行建议。该节点的响应将作为最终的输出展示在前端页面中,也可通过 API 返回给调用方。
6 应用运行与发布
6.1 预览与测试运行
在 Dify 应用管理页面中,点击“预览”按钮进入测试模式,用户可直接输入模拟问题测试应用表现。系统将实时展示工作流执行路径、插件调用过程及最终输出,方便开发者调试和优化。
6.2 启动与正式运行
通过预览测试验证无误后,可启用应用,使其正式提供服务。启用后应用将对外开放入口地址,允许用户在实际场景中调用模型完成任务,支持公网访问、内网集成或身份认证接入。
6.3 网页嵌入与站点集成
Dify 提供 iframe 嵌入代码,支持将应用页面集成至任意 Web 系统中。只需复制平台提供的 HTML 段落至目标网页,即可在门户、教学系统或博客平台中呈现学习小助手界面,实现多平台部署。
6.4 API 接口调用
平台还支持标准 RESTful 接口调用模式。开发者可使用平台生成的 API Key,通过后端请求方式将用户问题发送至 Dify,并获取模型与工具联合生成的回复。该方式适用于移动端应用、微信小程序、企业业务系统集成等场景。
7 使用体验与总结
通过本次在华为云生态下的实战部署与应用开发,可以看到构建一个真正落地的大模型应用不再是高门槛任务。依托华为云资源编排服务,我们可以快速搭建好 Dify 平台,省去了传统环境部署的复杂流程。通过接入 DeepSeek 私有模型,实现了本地化、低延迟、高安全的模型推理能力。
结合 MCP 工具广场中丰富的模型插件,尤其是 Leecode 模型工具,让模型不仅能理解问题,还能借助工具给出可操作的具体解法和代码,从而具备完成具体任务的能力。而通过 Dify 的工作流机制,我们可以自由编排模型与工具的协同执行过程,使得智能体不仅“能说会答”,还“会用工具解决问题”。
最终构建的“学习小助手”应用,能够处理自然语言输入的算法题目请求,自动判断问题类型、调用插件解析并输出标准代码答案,真正实现了 AI + 工具链的复合式能力链条。整个过程无需手写后端逻辑,也不依赖复杂编程,展现了低代码智能开发平台的巨大潜力。
结语
借助华为云与 Dify 的深度集成,开发者可以在数十分钟内完成从平台部署到模型接入、插件调用、应用上线的全过程,快速构建面向教学、客服、开发者辅助等场景的智能体应用。未来,随着 Dify 工作流、MCP 工具生态和华为云大模型能力的持续扩展,智能应用的开发边界将进一步拓展。如果你希望打造一个属于自己的 AI 学习助手,不妨现在就从一键部署 Dify 开始。