ByteMD+CozeAPI+Coze平台Agent+Next搭建AI辅助博客撰写平台(逻辑清楚,推荐!)
背景
:
现在主流的博客平台AI接入不够完善,如CSDN接入的AI助手不支持
多模态数据
的交互、稀土掘金的编辑器AI功能似乎还没能很好接入(哈哈哈,似乎在考虑布局什么?)
痛点
分析:
- 用户常常以截图的形式截取内容,但是如果单纯的用解析工具,解析的为单纯文本,而在撰写博客时常常MD编辑器,这就可能要blogger继续借助第三方工具将内容转换为md格式,此过程繁琐(结合自身博客撰写遇到的问题)
支持PDF等文档格式解析
:PDF等格式也是常用的内容记录格式,但是如果需要将内容发布成博客,一是
要复制文档内容,二是
文档内容常常不是凝练好的常常有冗余,三是
还需借助外部工具转化为MD格式才好发成MD格式- 文字常常不易理解,现主流博客编辑不支持将博客内容总结,生成一个
思维导图
,这让普通用户读起来或者blogger自己回顾起来可能有点吃力(调研腾讯文档
)
功能
:
- 标题辅助生成、摘要总结(基本,调研CSDN)
- 支持多模态数据的交互:图片和PDF等格式
- 总结生成思维导图
- 流式展示(Fetch+SSE,自己封装SSEWrapper和MessaageService,处理异常[浏览器主动断开、刷新])
支持多模态数据解析
图片
了解object_string多模态数据组织结构
当进行多模态数据进行对话时,首先了解对话的内容的数据结构是什么?object_string
官方说明文档
当了解数据结构之后,我们不难知道,当单纯是普通文本对话时,内容为text格式,而涉及到多模态数据是就是object_string
多模态数据内容改如何传入到对话中(file_id和file_url)
解决这个问题,另外一个问题就是多模态数据如何处理?如何加入到对话中?
[{"type": "text","text": "你好我有一个帽衫,我想问问它好看么,你帮我看看"}, {"type": "image","file_id": "{{file_id_1}}"}, {"type": "pdf","file_id": "{{file_id_2}}"},
]
看上面object_string组织不难理解,需要一个file_id
或者file_url
,file_id可以上传文件到Coze空间返回内容就有file_id,而file_url就需自己上传至自己的云存储器中,返回得到公网可访问的url地址
- file_id获取
上传文件
上传文件测试
需要注意的就是,Post请求,必须使用multipart/form-data
方式上传文件。
// Step 1: Upload the file to Coze files API to get a file_idconst uploadResult = await fetch('https://api.coze.cn/v1/files/upload', {method: 'POST',headers: {"Authorization": `Bearer ${process.env.NEXT_PUBLIC_KEY}`,},body: formData,});if (!uploadResult.ok) {const errorData = await uploadResult.json();throw new Error(errorData.error || errorData.message || '文件上传到Coze失败。');}const uploadResponse = await uploadResult.json();console.log("Coze File upload response:", uploadResponse);const fileId = uploadResponse.data?.id;
- file_url获取
file_id转file_url
案例:设计了一个工作流,输入数据为File格式(按正常是需要file_url,但是我避开,直接借助file_id
)
如下面,按正常PDF_Reader需要一个PDFURL,就是一个公网可访问的pdf连接,但是临时去搭建比较繁琐,想着相传文件到Coze空间了,而且也有了file_id了,应该要纠结的就是id和url如何映射,CozeAPI有自动封装吗?
然后去创建工作流这去看,果然可以讲file_id传入参数中,自动会解析成url,file_id->file_url,但是我在对话中试了调用Agent,Agent自动调用并传参给工作流还是有问题——TODO
:如何传参给Agent,Agent调用合适工作流并使用参数
原话
:工作流开始节点的输入参数及取值,你可以在指定工作流的编排页面查看参数列表。
如果工作流输入参数为 Image 等类型的文件(条件1)
,可以调用上传文件 API 获取 file_id(条件2)
,在调用此 API 时,在 parameters 中以序列化之后的 JSON 格式传入 file_id。例如 “parameters” : { “input”: “{“file_id”: “xxxxx”}” }
const handleSend = useCallback(async (content: string, queryParams?: EventSourceConfig['queryParams'], isTitleGeneration: boolean = false) => {if (!content.trim() && uploadedFiles.length === 0) {message.warn('消息内容或文件不能为空!');return;}if (loading) {message.warn('AI 正在处理上一个请求,请稍候。');return;}const pdfFile = uploadedFiles.find(file => file.type === 'pdf');if (pdfFile) {// If a PDF is uploaded, trigger the workflowawait executePdfWorkflowBackend(pdfFile.id, pdfFile.name);// Optionally, clear the input or add a user message for the PDF actionsetAiInput(''); // Clear the input after triggering PDF workflowsetUploadedFiles([]); // Clear uploaded files after workflow triggerreturn; // Exit as the workflow is handled}let finalContentToSend: string;let finalContentType: ContentType;if (uploadedFiles.length > 0) {finalContentType = ContentType.MULTIMODAL;const objectContent: any[] = [{ type: 'text', text: content }];uploadedFiles.forEach(file => {objectContent.push({type: file.type === 'pdf' ? 'file' : file.type, // Coze treats PDF as 'file' type for multimodalfile_id: file.id});});finalContentToSend = JSON.stringify(objectContent);} else {finalContentType = ContentType.TXT;finalContentToSend = content;}setLastRequestContent(finalContentToSend);console.log("AIDialogContent: Sending content:", finalContentToSend, "with contentType:", finalContentType);try {await messageService.send(finalContentToSend, {...queryParams,contentType: finalContentType,llmProvider: selectedModel,onComplete: (latestMessageContent: string) => {if (isTitleGeneration && onGenerateTitlePrompt) {onGenerateTitlePrompt(latestMessageContent);}}});} catch (error) {console.error("AIDialogContent: Error during message sending process:", error);if (!isStreamingMessage) {setLoading(false);}} finally {setAiInput('');console.log("AIDialogContent: Input cleared.");}}, [loading, isStreamingMessage, messageService, uploadedFiles, selectedModel, onGenerateTitlePrompt, executePdfWorkflowBackend]);
官方案例:解析文档
大模型本身并不具备文件读取和解析的能力
,无法直接处理文件字节流。对于支持工具调用(Function calling)的模型,扣子提供插件功能来帮助大模型调用外部工具 API
,拓展大模型的能力边界。扣子插件商店提供海量官方插件和第三方插件,例如链接读取插件可以将链接对应的文件内容解析为纯文本传递给大模型
。