当前位置: 首页 > news >正文

记录--关于前端的音频可视化-Web Audio

这里给大家分享我在网上总结出来的一些知识,希望对大家有所帮助

背景

最近听音乐的时候,看到各种动效,突然好奇这些音频数据是如何获取并展示出来的,于是花了几天功夫去研究相关的内容,这里只是给大家一些代码实例,具体要看懂、看明白,还是建议大家大家结合相关API文档来阅读这篇文章。

参考资料地址:Web Audio API - Web API 接口参考 | MDN (mozilla.org)

实现思路

首先画肯定是用canvas去画,关于音频的相关数据(如频率、波形)如何去获取,需要去获取相关audio的DOM 或通过请求处理去拿到相关的音频数据,然后通过Web Audio API 提供相关的方法来实现。(当然还要考虑要音频请求跨域的问题,留在最后。)

一个简单而典型的 web audio 流程如下(取自MDN):

  1. 创建音频上下文
  2. 在音频上下文里创建源 — 例如 <audio>, 振荡器,流
  3. 创建效果节点,例如混响、双二阶滤波器、平移、压缩
  4. 为音频选择一个目的地,例如你的系统扬声器
  5. 连接源到效果器,对目的地进行效果输出

实现

一、频率图

实现第一种类型,首先我们需要通过fetch或xhr来获取一个线上音频的数据,这里以fetch为例;

 //创建一个音频上下文、考虑兼容性问题let audioCtx = new (window.AudioContext || window.webkitAudioContext)();//添加一个音频源节点let source = audioCtx.createBufferSource();
//res.arrayBuffer是将数据转换为arrayBuffer格式fetch(url).then((res) => res.arrayBuffer()).then((res) => {//decodeAudioData是将arrayBuffer格式数据转换为audioBufferaudioCtx.decodeAudioData(res).then((buffer) => {// decodeAudioData解码完成后,返回一个AudioBuffer对象// 绘制音频波形图draw(buffer);// 连接音频源source.buffer = buffer;source.connect(audioCtx.destination);// 音频数据处理完毕});});

 需要明白的是,source.connect(audioCtx.destination)是将音频源节点链接到输出设备,否则会没声音哦。那么现在有了数据、我们只需要通过canvas将数据画出来即可。

function draw(buffer) {// buffer.numberOfChannels返回音频的通道数量,1即为单声道,2代表双声道。这里我们只取一条通道的数据let data = [];let originData = buffer.getChannelData(0);// 存储所有的正数据let positives = [];// 存储所有的负数据let negatives = [];// 先每隔50条数据取1条for (let i = 0; i < originData.length; i += 50) {data.push(originData[i]);}// 再从data中每10条取一个最大值一个最小值for (let j = 0, len = data.length / 10; j < len; j++) {let temp = data.slice(j * 10, (j + 1) * 10);positives.push(Math.max(...temp));negatives.push(Math.min(...temp));}if (canvas.getContext) {let ctx = canvas.getContext("2d");canvas.width = positives.length;let x = 0;let y = 75;let offset = 0;var grd = ctx.createLinearGradient(0, 0, canvas.width, 0);// 为渐变添加颜色,参数1表示渐变开始和结束之间的位置(用0至1的占比表示),参数2位颜色grd.addColorStop(0, "yellow");grd.addColorStop(0.5, "red");grd.addColorStop(1, "blue");ctx.fillStyle = grd;ctx.beginPath();ctx.moveTo(x, y);// 横坐标上方绘制正数据,下方绘制负数据// 先从左往右绘制正数据// x + 0.5是为了解决canvas 1像素线条模糊的问题for (let k = 0; k < positives.length; k++) {ctx.lineTo(x + k + 0.5, y - 50 * positives[k]);}// 再从右往左绘制负数据for (let l = negatives.length - 1; l >= 0; l--) {ctx.lineTo(x + l + 0.5, y + 50 * Math.abs(negatives[l]));}// 填充图形ctx.fill();}
}

[参考文章](Web Audio - 绘制音频图谱 - 掘金 (juejin.cn))

二、实时频率图

实现第二种类型,获取实时频率,用到的API与第一种有区别,但流程一直,都是通过一个音频源节点通过连接达到效果。只不过在连接的中间加入了一个分析器analyser,在将分析器连接到输出设备。

    const audio =document.querySelector('audio')//解决音频跨域问题audio.crossOrigin ='anonymous'const  canvas =document.querySelector('canvas')const ctx=canvas.getContext("2d")function initCanvas(){//初始化canvascanvas.width=window.innerWidth*devicePixelRatiocanvas.height=(window.innerHeight/2)*devicePixelRatio}initCanvas()//将数据提出来let dataArray,analyser;//播放事件audio.onplay=function(){//创建一个音频上下文实例const audioCtx=new (window.AudioContext || window.webkitAudioContext)();//添加一个音频源节点const source=audioCtx.createMediaElementSource(audio);//分析器节点analyser=audioCtx.createAnalyser();//fft分析器  越大 分析越细analyser.fftSize=512//创建一个无符号字节的数组dataArray=new Uint8Array( analyser.frequencyBinCount);//音频源节点 链接分析器source.connect(analyser)//分析器链接输出设备analyser.connect(audioCtx.destination,)}
那么接下来至于怎么把数据画出来,就凭大家的想法了。
            requestAnimationFrame(draw)//const {width ,height}=canvas;ctx.clearRect(0,0,width,height)//分析器节点分析出的数据到数组中ctx.fillStyle='#78C5F7'ctx.lineWidth = 2;ctx.beginPath();//getByteFrequencyData,分析当前音频源的数据 装到dataArray数组中去//获取实时数据analyser.getByteFrequencyData(dataArray)// console.log(dataArray);const len =dataArray.length;const barWidth=width/len;let x=0;for(let i=0;i<len;i++){const data=dataArray[i];const barHeight=data/255*height;// ctx.fillRect(x,y,barWidth,height)let v = dataArray[i] / 128.0;let y = v * height/2;if(i === 0) {ctx.moveTo(x, y);} else {ctx.lineTo(x, y);}x += barWidth;}// ctx.lineTo(canvas.width, canvas.height/2);ctx.stroke();}draw();

关于请求音频跨域问题解决方案

给获取的audio DOM添加一条属性即可

   audio.crossOrigin ='anonymous'

或者直接在 aduio标签中 加入 crossorigin="anonymous"

总结

虽然现在已经有很多开源的对于音频相关的库,但如果真正的想要去了解,去学习音频相关的东西。必须要去深入学习相关的Web Audio API,当然这里只是用了其中两种的方法去实现Web Audio去实现可视化,算是一个基础入门,对于文中的createBufferSourcecreateMediaElementSourcecreateAnalyserAudioContextarrayBufferdecodeAudioData等等相关的API都需要去了解,在可视化方面,还有多种多样的方式去绘制动画,如WebGL。对音频的处理也不只是在可视化方面。

本文转载于:

https://juejin.cn/post/7205381513339322427

如果对您有所帮助,欢迎您点个关注,我会定时更新技术文档,大家一起讨论学习,一起进步。

 

http://www.lryc.cn/news/95482.html

相关文章:

  • docker-compose yml配置、常用命令
  • 【实战】 七、Hook,路由,与 URL 状态管理(下) —— React17+React Hook+TS4 最佳实践,仿 Jira 企业级项目(十三)
  • 【MySQL】_5.MySQL的联合查询
  • 【后端面经】微服务构架 (1-3) | 熔断:熔断-恢复-熔断-恢复,抖来抖去怎么办?
  • 对UITextField输入内容的各种限制-总结
  • 【图论】二分图
  • 数据结构——(一)绪论
  • [ 华为云 ] 云计算中Region、VPC、AZ 是什么,他们又是什么关系,应该如何抉择
  • 表单验证:输入的字符串以回车分隔并验证是否有
  • 智能财务分析-亿发财务报表管理系统,赋能中小企业财务数字化转型
  • 图为科技T501赋能工业机器人 革新传统工业流程
  • 安全狗深度参与编写的《云原生安全配置基线规范》正式发布!
  • 如何在3ds max中创建可用于真人场景的巨型机器人:第 2 部分
  • Vue中TodoList案例_编辑
  • 什么是Redis?
  • 深入浅出理解vue2/vue3响应式原理
  • ssh连接服务器配置
  • el-table 表头设置渐变色
  • GB/T 25000.51解读——软件产品的易用性怎么测?
  • 408复试day2(7大排序算法)
  • Vue消息订阅与发布
  • MySQL学习笔记 ------ 分组查询
  • Matlab 点云平面特征提取
  • vite的介绍
  • 裁员 10%,暴跌 14%,这家 IT 独角兽正在被抛弃!
  • 电脑记事本在哪里?电脑桌面显示记事本要怎么设置?
  • 微服务笔记---Nacos集群搭建
  • python 小案例
  • 【SpringBoot】SpringBoot JPA 基础操作(CURD)
  • 大数据技术之Hive3