当前位置: 首页 > news >正文

【AI智能体】智能音视频-硬件设备基于 WebSocket 实现语音交互

本文介绍硬件设备通过 WebSocket 实现语音交互的完整流程。WebSocket 技术为硬件设备提供了低延迟的语音交互能力,支持按键说话和自由对话两种模式,适用于智能音箱、车载系统、智能家居控制、在线客服、游戏语音聊天等场景,满足不同使用场景的需求。

WebSocket 语音功能介绍

扣子 WebSocket 提供了高效且灵活的语音交互解决方案,以下是其核心功能:

  • 支持按键说话与自由对话
    • 按键说话(客户端按键判停):用户通过按键控制录音的开始和结束,适用于需要精准控制对话的场景。
    • 自由对话(扣子云端判停):扣子云端通过语音活动检测(VAD)自动判断语音的开始和结束,实现无缝的自然对话体验。
  • 支持多种音频编码格式

扣子 WebSocket 支持多种音频编码格式,以满足不同设备和网络环境的需求:

  • 输入音频:支持 PCM、OPUS、G711A 和 G711U 格式。
  • 输出音频:支持 PCM、OPUS、G711A 和 G711U 格式,默认为采样率 24000 的 PCM 片段。
  • 低延迟交互

扣子 WebSocket 具备低延迟的语音交互体验, 按键说话场景的时延低至 1.2 秒,自由对话场景的时延低至 1.8 秒。

按键说话场景的实现流程

1 检查智能体配置

在接入硬件设备之前,确保智能体的配置无误,且通话延迟小于两秒。可以通过以下步骤进行测试和验证:

  1. 在 WebSocket 实时语音 Demo 页面右上角的 Settings 中配置个人访问令牌(PAT)和智能体 ID ,具体步骤请参见集成 WebSocket 实时语音 Web SDK。
  2. 与智能体进行语音对话。测试对话的延迟,如果延迟较高,建议检查智能体的配置,例如是否配置了插件或工作流。可以先去掉这些配置进行测试,正常体感延迟应控制在 2 秒左右。

2 设备侧接入

整体交互流程

步骤一:建立 WebSocket 连接

与扣子建立 WebSocket 连接,具体请参见双向流式语音对话。

步骤二:发送 chat.update 事件更新配置

与扣子 WebSocket 连接成功后,立即发送 chat.update 事件更新对话配置。以下是配置示例:

说明:

实际使用时需要去掉代码中的注释。

输入输出音频都是 PCM

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM格式 "codec": "pcm",         // 输入音频编码。 支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 按需配置采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "pcm",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"pcm_config": { "sample_rate": 16000,  // 默认  24000 "frame_size_ms": 50, "limit_config": { "period": 1, "max_frame_num": 22 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"    // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"event_subscriptions": ["error","conversation.chat.camplete","conversation.chat.canceled","conversation.audio.delta","conversation.chat.failed"]} 
}

输入是 PCM,输出是 OPUS

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式 "codec": "pcm",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "opus",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"opus_config": { "bitrate": 48000,   // 码率 "use_cbr": true,     // 是否使用 cbr 编码 "frame_size_ms": 60,   // 帧长(单位ms) "limit_config": { "period": 1,   // 周期(单位 s) "max_frame_num": 17 // 周期内返回最大 opus 帧数量 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"  // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"event_subscriptions": ["error","conversation.chat.camplete","conversation.chat.canceled","conversation.audio.delta","conversation.chat.failed"]} 
}

输入是 OPUS,输出是 PCM

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM格式 "codec": "opus",         // 输入音频编码。 支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 按需配置采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "pcm",        // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"pcm_config": { "sample_rate": 16000,  // 默认  24000 "frame_size_ms": 50, "limit_config": { "period": 1, "max_frame_num": 22 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"    // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"event_subscriptions": ["error","conversation.chat.camplete","conversation.chat.canceled","conversation.audio.delta","conversation.chat.failed"]} 
}

输入输出都是 OPUS

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式 "codec": "opus",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "opus",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"opus_config": { "bitrate": 48000,   // 码率 "use_cbr": true,     // 是否使用 cbr 编码 "frame_size_ms": 60,   // 帧长(单位ms) "limit_config": { "period": 1,   // 周期(单位 s) "max_frame_num": 17 // 周期内返回最大 opus 帧数量 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"  // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"event_subscriptions": ["error","conversation.chat.camplete","conversation.chat.canceled","conversation.audio.delta","conversation.chat.failed"]} 
}
步骤三:发送音频数据
  1. 用户按下录音键,开始录音,通过 input_audio_buffer.append 事件持续发送音频数据给扣子,事件说明请参见流式上传音频片段。

如果是上行是 PCM 编码的音频,每次发送 10ms ~ 20ms 的音频数据给扣子,例如每间隔 20ms,发送 20ms 的音频数据,对应字节数 = 采样率 * 位深/8 * 通道数 * 0.02。

如果上行是 OPUS 编码的音频,每次发送 20ms/40ms 帧长的 OPUS 音频数据是最优的选择。

  1. 用户松开录音键,结束录音,发送 input_audio_buffer.complete 事件告诉扣子音频发送完毕。事件说明请参见提交音频。
步骤四:接收音频事件
  1. 收到扣子返回的 conversation.audio.delta 事件后,解析其中的 content 字段,进行 Base64 解码后获取二进制音频数据。事件说明请参见增量语音 。
  2. 将音频数据放入播放缓冲区队列,由单独的线程从缓冲区取音频数据进行播放。
步骤五:打断对话
  1. 智能体正在播放时,用户按下录音键,需要发送 conversation.chat.cancel 事件告诉扣子打断智能体输出。事件说明请参见打断智能体输出。
  2. 扣子接收到 conversation.chat.cancel 事件后,会停止返回音频数据,并返回 conversation.chat.canceled 事件。
  3. 设备侧接收到 conversation.chat.canceled 事件后,需要停止播放并清空播放缓冲区的数据。

自由对话场景的实现流程

扣子 WebSocket 方案支持自由对话,扣子云端会进行 VAD 的检测。

1 检查智能体配置

在接入硬件设备之前,确保智能体的配置无误,且通话延迟小于两秒。可以通过以下步骤进行测试和验证:

  1. 在 WebSocket 实时语音 Demo 页面右上角的 Settings 中配置个人访问令牌(PAT)和智能体 ID ,具体步骤请参见集成 WebSocket 实时语音 Web SDK。
  2. 与智能体进行语音对话。测试对话的延迟,如果延迟较高,建议检查智能体的配置,例如是否配置了插件或工作流。可以先去掉这些配置进行测试,正常体感延迟应控制在 2 秒左右。

2 设备侧接入

整体交互流程

步骤一:建立 WebSocket 连接

与扣子建立 WebSocket 连接,具体请参见双向流式语音对话。

步骤二:发送 chat.update 事件更新配置

与扣子 WebSocket 连接成功后,立即发送 chat.update 事件更新对话配置。以下是配置示例:

说明:

实际使用时需要去掉代码中的注释。

输入输出音频都是 PCM

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式"codec": "pcm",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "pcm",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"pcm_config": { "sample_rate": 16000,  // 默认  24000 "frame_size_ms": 50, "limit_config": { "period": 1, "max_frame_num": 22 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281" // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"turn_detection": {"type": "server_vad"   // 默认是客户端打断(按键说话)},"event_subscriptions": ["error","input_audio_buffer.speech_started","input_audio_buffer.speech_stopped","conversation.audio.delta","conversation.chat.failed"]} 
}

输入是 PCM,输出是 OPUS

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID。按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式 "codec": "pcm",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "opus",     // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"opus_config": { "bitrate": 48000,   // 码率 "use_cbr": false,     // 是否使用 cbr 编码 "frame_size_ms": 60,   // 帧长(单位ms) "limit_config": { "period": 1,   // 周期(单位 s) "max_frame_num": 17 // 周期内返回最大 opus 帧数量 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"   // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"turn_detection": {"type": "server_vad"},"event_subscriptions": ["error","input_audio_buffer.speech_started","input_audio_buffer.speech_stopped","conversation.audio.delta","conversation.chat.failed"]} 
}

输入是 OPUS,输出是 PCM

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式"codec": "opus",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "pcm",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000  "pcm_config": { "sample_rate": 16000,  // 默认  24000 "frame_size_ms": 50, "limit_config": { "period": 1, "max_frame_num": 22 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281" // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"turn_detection": {"type": "server_vad"   // 默认是客户端打断(按键说话)},"event_subscriptions": ["error","input_audio_buffer.speech_started","input_audio_buffer.speech_stopped","conversation.audio.delta","conversation.chat.failed"]} 
}

输入输出都是 OPUS

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID。按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式 "codec": "opus",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "opus",     // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000 "opus_config": { "bitrate": 48000,   // 码率 "use_cbr": false,     // 是否使用 cbr 编码 "frame_size_ms": 60,   // 帧长(单位ms) "limit_config": { "period": 1,   // 周期(单位 s) "max_frame_num": 17 // 周期内返回最大 opus 帧数量 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"   // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"turn_detection": {"type": "server_vad"},"event_subscriptions": ["error","input_audio_buffer.speech_started","input_audio_buffer.speech_stopped","conversation.audio.delta","conversation.chat.failed"]} 
}
步骤三:开启录音

通过 input_audio_buffer.append 事件持续发送音频给扣子,事件的详细说明请参见流式上传音频片段。

如果上行是 PCM 编码的音频,每次发送 10ms ~ 20ms 的音频数据给扣子,例如每间隔 20ms,发送 20ms 的音频数据,对应字节数 = 采样率 * 位深/8 * 通道数 * 0.02。

如果上行是 OPUS 编码的音频,每次发送 20ms/40ms 帧长的 OPUS 音频数据是最优的选择。

步骤四:接收音频事件
  1. 收到扣子返回的 conversation.audio.delta 事件后,解析其中的 content 字段,进行 Base64 解码后获取二进制音频数据。事件说明请参见增量语音 。
  2. 将音频数据放入播放缓冲区队列,由单独的线程从缓冲区取音频数据进行播放。
步骤五:停止播放声音

设备端收到以下两个事件后,需要停止播放声音,并清空播放缓冲区:

  1. 收到扣子返回的 input_audio_buffer.speech_started 事件后,表示扣子服务端识别到用户正在说话。事件说明请参见用户开始说话。
  2. 收到扣子返回的 conversation.chat.canceled 事件后,表示扣子服务器打断了智能体说话。事件说明请参见智能体输出中断。
http://www.lryc.cn/news/582658.html

相关文章:

  • 一文讲清楚React的diff算法
  • 汽车功能安全系统阶段开发【技术安全方案TSC以及安全分析】5
  • Eigen中Isometry3d的使用详解和实战示例
  • UDP的socket编程
  • 黑马点评系列问题之P37商户点评缓存作业,用了string和list两种方法,可以直接复制粘贴
  • 微软上线Deep Research:OpenAI同款智能体,o3+必应双王炸
  • 专题:2025数据资产AI价值化:安全、战略与应用报告|附400+份报告PDF、原数据表汇总下载
  • openEuler2203sp4-vg磁盘组中剔除磁盘
  • 香港站群服务器与普通香港服务器对比
  • Windows 系统安装与使用 Claude Code 全攻略
  • 【LeetCode 热题 100】142. 环形链表 II——快慢指针
  • OpenWebUI(4)源码学习-后端routers路由模块
  • 车载以太网-TC8测试-UT(Upper Tester)
  • C语言使用Protobuf进行网络通信
  • 2025年微软mos备考攻略-穷鬼版
  • claude code-- 基于Claude 4 模型的智能编程工具,重塑你的编程体验
  • 【DOCKER】-2 docker基础
  • 字符串大小比较的方式|函数的多返回值
  • python transformers库笔记(BertForTokenClassification类)
  • BM10 两个链表的第一个公共结点
  • Linux_常见指令和权限理解
  • OSPFv3与OSPFv2不同点
  • 【Spring WebSocket详解】Spring WebSocket从入门到实战
  • springboot单体项目的发布生产优化
  • 【保姆级目标检测教程】Ubuntu 20.04 部署 YOLOv13 全流程(附训练/推理代码)
  • 基于SpringBoot+Vue的非遗文化传承管理系统(websocket即时通讯、协同过滤算法、支付宝沙盒支付、可分享链接、功能量非常大)
  • 【WEB】Polar靶场 16-20题 详细笔记
  • 从0到1搭建ELK日志收集平台
  • OpenCV探索之旅:形态学魔法
  • mit6.5840-lab3-3D-SnapShot-25Summer