华为云Flexus+DeepSeek征文 | 基于华为云Dify-LLM搭建知识库问答助手
华为云Flexus+DeepSeek征文 | 基于华为云Dify-LLM搭建知识库问答助手
- 前言
- 一、华为云Dify-LLM平台介绍
- 1. Dify-LLM解决方案简介
- 2. Dify-LLM解决方案地址
- 3. Dify-LLM单机架构介绍
- 4. 预估成本说明
- 二、华为云Maas平台介绍
- 1. 华为云ModelArts Studio简介
- 2. 华为云ModelArts Studio主要特点
- 3. 华为云ModelArts Studio主要使用场景
- 三、Dify-LLM环境准备
- 1. 一键快速部署(社区单机版)
- 2. 访问Dify-LLM应用开发平台
- 四、开通DeepSeek商用服务步骤
- 1. 进入ModelArts Studio控制台
- 2. 开通DeepSeek商用服务
- 3. 保存API信息
- 五、Dify-LLM的AI模型配置工作
- 六、创建知识库
- 七、创建聊天助手
- 1. 创建聊天助手
- 2. 测试对话功能
- 八、清空云资源
- 九、总结
前言
随着人工智能技术的不断发展,基于大语言模型的知识库问答系统正逐步成为提升信息获取效率的重要工具。华为云Dify-LLM平台
凭借其强大的模型能力与灵活的部署方案,为开发者提供了高效构建智能问答系统的坚实基础。本文将围绕如何利用华为云Dify-LLM搭建知识库问答助手展开实践探索,助力企业实现智能化服务升级。
一、华为云Dify-LLM平台介绍
1. Dify-LLM解决方案简介
本解决方案旨在帮助用户在 华为云 上快速部署 Dify-LLM 应用开发平台 的单机版本和高可用版本。Dify 是一个开源的大语言模型(LLM)应用开发平台,融合了后端即服务(Backend as Service)与 LLMOps 的理念,支持开发者高效构建生产级生成式 AI 应用。
通过本方案,您可以轻松完成 Dify 平台的部署,并将创建的知识库挂载至 华为云对象存储服务(OBS)桶,实现知识数据的统一管理与持久化存储,适用于从个人学习到企业试点项目的多种场景。
2. Dify-LLM解决方案地址
- 华为云官网地址:https://www.huaweicloud.com/solution/implementations/building-a-dify-llm-application-development-platform.html
3. Dify-LLM单机架构介绍
社区版单机部署适用于测试、演示及轻量级使用场景,具备快速搭建、低成本的优势。其核心架构如下:
- Flexus 云服务器 X 实例(FlexusX):作为运行 Dify-LLM 平台的主节点,提供计算资源与运行环境。
- 弹性公网 IP(EIP):绑定 FlexusX 实例,实现与公网互通,便于远程访问与调试。
- 安全组配置:设置安全组规则,保障云服务器的网络安全,仅开放必要的访问端口。
- OBS 对象存储服务(可选):用于挂载 Dify 创建的知识库文件,实现数据的集中管理与长期保存。
4. 预估成本说明
以下为单机部署模式下的大致费用估算(按需计费):
资源类型 | 单价(人民币) | 使用说明 | 预估成本(体验期间) |
---|---|---|---|
Flexus 云服务器 X 实例 | 0.95 元/小时 | 按小时计费,运行 Dify 平台 | 约 2~3 元 |
弹性公网 IP(EIP) | 0.80 元/GB/小时 | 流量按 GB 计费 | 约 1~2 元 |
总计 | — | — | 不超过 5 元 |
⏱️ 预计耗时:部署约 20 分钟,卸载约 10 分钟
📅 更新日期:2025年6月
🧑💻 来源:由华为云官方构建并维护
二、华为云Maas平台介绍
1. 华为云ModelArts Studio简介
华为云ModelArts Studio 是基于 ModelArts 打造的大模型即服务(MaaS)平台,提供一站式的大模型开发、部署与管理能力。它支持从模型定制、推理到工作流编排的全流程应用构建,帮助企业快速实现智能化升级。凭借简单易用的工具链和强大的AI工程化支持,ModelArts Studio 显著降低了大模型应用门槛,助力企业高效落地AI能力。
华为云ModelArts Studio平台官方地址
:https://www.huaweicloud.com/product/modelarts/studio.html
2. 华为云ModelArts Studio主要特点
- 模型全面:集成Llama、Baichuan、Yi、Qwen、DeepSeek等主流开源大模型,并基于昇腾AI云服务进行性能与精度优化。
- 免配置、免调优:提供一键式训练、自动超参调优功能,降低模型开发门槛,显著缩短开发周期。
- 性能优异:通过昇腾算子优化与显存管理,实现大模型训练与推理性能大幅提升。
- 资源灵活易获取:支持按需开通、弹性扩缩容,保障高性价比的算力使用,同时支持断点续训与故障恢复。
- 一站式工具链:涵盖模型调优、压缩、评测、部署等全生命周期工具,开箱即用,低门槛上手。
- 多组件集成能力强:支持LangChain、RAG、Agent、Guard等多种AI组件即插即用,快速构建复杂AI应用系统。
3. 华为云ModelArts Studio主要使用场景
- 智能问答系统:基于预训练大模型快速构建知识库驱动的问答系统,提升信息检索效率。
- 企业级AI助手开发:利用平台提供的Prompt模板和智能Agent能力,打造能理解任务并自主决策的企业AI助手。
- 个性化内容生成:适用于新闻撰写、营销文案、客服回复等内容创作类任务,提升内容生产效率。
- 多模态AI应用构建:结合图像、语音、文本等多模态数据,开发智能客服、虚拟主播等综合型AI产品。
三、Dify-LLM环境准备
1. 一键快速部署(社区单机版)
🔧 相关资源与部署方式
-
华为云解决方案实践:
快速搭建 Dify-LLM 应用开发平台 -
部署方式选择:
点击进入部署页面,选择 「一键部署(社区版单机部署)」 方式,开始快速搭建 Dify-LLM 应用开发环境。
在模板选择步骤中,保持默认配置即可。我们选择现有的模板类型,并将模板来源设置为“URL”,随后在输入框中填入指定地址,作为模板的加载路径。
在参数配置步骤中,需设置 ecs_password
的值,该字段用于指定华为云 Flexus X 实例服务器的登录密码。其余参数可保持默认配置,确认无误后点击“下一步”。
在资源栈设置步骤中,若不手动配置权限委托,系统将默认使用当前账号的权限完成部署。本次测试采用主账号操作,因此可直接保留默认配置,点击【下一步】继续。同时,建议开启回滚机制,以便在部署失败时能够自动回退,保障环境稳定与操作安全。
配置确认:完成参数设置后,对配置内容进行检查,确认无误后生成执行计划,准备部署操作。
在刚刚创建的执行计划中,点击【部署】选项,确认启动部署流程。这样即可开始执行已设定的部署计划。
确认执行后,资源栈将按照计划进行更新,并自动开通模板中定义的各项资源。根据资源的使用情况,可能会产生相应的费用。请确保账户余额充足以避免部署中断。
在部署环节,系统将自动触发多元云资源的创建流程,像计算实例、存储集群以及网络链路等组件都会依次生成。由于各类资源的初始化配置存在耗时差异(具体时间受云服务商底层架构和资源规格影响),建议保持耐心等候。
2. 访问Dify-LLM应用开发平台
进入Dify 登录页面后,输入之前注册的账号和密码进行登录。确认信息无误后,点击登录按钮即可成功进入平台。
成功登录账号密码后,将跳转至 Dify 的首页界面。此时可以看到平台的主功能区域和操作入口,表示已成功进入 Dify 应用环境。
四、开通DeepSeek商用服务步骤
1. 进入ModelArts Studio控制台
访问华为云官网并点击“ModelArts Studio控制台”后,即可直接进入ModelArts Studio控制台,开启我们的AI开发与管理之旅。
2. 开通DeepSeek商用服务
在ModelArts Studio控制台首页左侧菜单栏中,选择 模型推理 > 在线推理,然后依次选中所需的商用服务模型 —— DeepSeek-R1-0528、DeepSeek-V3-32K 或 DeepSeek-R1-32K,点击“开通服务”即可完成配置。
3. 保存API信息
我们以DeepSeek-V3-32K商用服务为例,点击【调用说明】,查看其OpenAI SDK信息。
将OpenAI SDK信息的接口信息保存在本地,如下所示:
在 API Key 管理页面中,点击【创建 API Key】按钮,生成所需的 API 密钥。创建完成后,将生成的 API Key 与 OpenAI SDK 的接口信息一并保存,以便后续调用和配置使用。
五、Dify-LLM的AI模型配置工作
在账户设置区域,点击下方的“设置”选项,进入系统配置界面。在模型供应商列表中,选择 OpenAI-API-compatible
并点击进行安装配置。
在刚刚添加的 OpenAI-API-compatible 模型供应商页面中,点击【添加模型】按钮。进入模型配置界面,开始设置所需的模型参数。
在模型配置界面中,可参考以下信息填写各项参数:
- 模型类型:LLM
- 模型名称:DeepSeek-V3
- 模型显示名称:DeepSeek-V3
- API Key:填写此前创建并保存的 API Key
- API Endpoint URL:
https://api.modelarts-maas.com/v1
确认信息填写无误后,其余选项保持默认设置,点击【保存】完成配置。
六、创建知识库
在知识库管理页面,点击【创建知识库】,进入到知识库创建页面。
将本地文件上传到Dify知识库中,这里将一份测试文档上传到知识库。
由于当前处于测试环境,我们选择【经济】索引模式。该模式下,每个数据块将使用10个关键词进行检索,虽然不会消耗任何tokens,但可能会在一定程度上降低检索的准确性。其余配置保持默认,设置完成后点击“保存并处理”。
七、创建聊天助手
1. 创建聊天助手
返回Dify首页后,我们点击“创建空白应用”开始新建一个应用。
🧩 空白应用配置参考
在创建空白应用后,可参考以下配置进行设置:
- 应用类型:选择「聊天助手」
- 应用名称:Linux小助手 💼
- 应用描述:一个专注于帮助用户学习和使用Linux系统的智能助手
操作步骤:
- 填写完配置信息后,点击【创建】按钮。
- 系统将根据设置生成你的专属智能Linux助手。
提示词,可参考如下:
你是一个专业的 Linux系统助手,具备深厚的 Linux 知识,擅长帮助用户解答关于命令使用、系统配置、故障排查、脚本编写等相关问题。你的回答应简洁明了、条理清晰,并尽量提供可操作的命令示例。
请始终遵循以下原则:
- 使用中文进行交流,保持口语化但专业。
- 回答内容需准确可靠,避免猜测不确定的信息。
- 当涉及复杂命令或修改系统配置时,提醒用户注意安全操作。
- 若遇到不熟悉的问题,请如实告知并建议查阅官方文档或寻求进一步支持。
角色设定:
你是一名经验丰富的 Linux 运维工程师,乐于助人,善于用通俗易懂的语言解释技术问题。
关联知识库:在AI助手的配置项中,我们点击关联刚才创建的知识库。
2. 测试对话功能
调试与预览:在右侧的对话框中输入简单的提问内容,若系统能够正常返回准确、流畅的回答,则表明应用运行状态良好,配置已生效。
针对我们上传至知识库的文档内容,例如【文件查看与编辑命令】相关问题,可以在对话框中进行提问测试。系统将基于知识库内容进行检索与引用,并在回答中展示相关信息,确保内容准确、完整。若希望进一步提升检索效果和答案匹配度,建议选择高质量的嵌入模型进行知识库检索,以获得更精准的回答。
八、清空云资源
完成实验操作后,建议及时清理临时创建的云资源,以防止产生不必要的费用。可以进入资源栈列表,找到对应的资源条目进行批量删除。通过一键清除所有相关资源,既能保持环境整洁,也有助于成本的有效管控。
九、总结
通过本次实践,我们深入了解了如何基于华为云Dify-LLM平台快速搭建一个高效、智能的知识库问答助手。整个过程中,华为云Flexus提供的高性能算力支持与DeepSeek大模型的强大推理能力相得益彰,显著提升了问答准确率与响应效率。华为云以其稳定、灵活、易用的AI开发平台,为企业和个人开发者提供了强有力的支撑,真正实现了“智能即服务”的愿景。🌟 选择华为云,让智能应用开发更轻松、更高效! ☁️🚀