Web Audio API DEMO

  一转眼就已经有三个月没写博客了,毕业季事情确实多,现在也终于完全毕业了,博客还是不能落下。偶尔还是要写一下。

  玩HTML5的Audio API是因为之前看到博客园里有关于这个的博客,觉得挺好玩的,所以就学习了一下。本文仅作为自己的学习记录。如有错误之处请指出。

    最终的效果也就如右图,楼主只是简单的做了个demo,如果要有更复杂的效果,园友们可以自己去玩一下 Web Audio API DEMO

  DEMO链接:请戳我!!!   选择音频文件后即可播放

  同时,这个API目前浏览器支持度不高,若要用于生产环境,请自行斟酌。

  首先,要做成这种效果,要分几步:

  1、获取音频文件,实例化一个音频容器对象。

  2、通过FileReader把音频文件转成ArrayBuffer后再对其进行解码。

  3、将解码后的buffer数据通过AudioBufferSourceNode接口传给音频容器对象并且播放。

  4、使用AnalyserNode接口实例化一个分析器。

  5、使用分析器获取音频播放时的各个频率。

  6、根据频率在canvas上画出来。

  大概说起来就以上几步,具体代码分析如下:

  先将要用到的对象先定义好:其中包括audioContext音频容器对象,以及canvas的2d绘图环境对象,requestAnimationFrame的兼容性写法。

var music = document.getElementById("music"),canvas = document.getElementById("cas"),ctx=canvas.getContext("2d");
        
window.AudioContext= window.AudioContext||window.webkitAudioContext||window.mozAudioContext;
window.RAF =  (function(){
            return window.requestAnimationFrame || window.webkitRequestAnimationFrame || window.mozRequestAnimationFrame || window.oRequestAnimationFrame || window.msRequestAnimationFrame || function (callback) {window.setTimeout(callback, 1000 / 60); };
})();
var AC = new AudioContext();

  

  然后就获取音频文件,可以直接通过input file来获取,或者用xhr也行。楼主为了方便,做的demo上就是直接用input file来获取音频文件。代码如下:通过onchange事件来获取到音频文件music.file[0]。再对音频文件进行解码,也就是changeBuffer方法要做的事。

music.onchange = function(){
            if(music.files.length!==0){
                changeBuffer(music.files[0]);
            }
        }        

  

  获取到了音频文件,先用FilreReader将文件转成ArrayBuffer对象,在加载完后可以通过e.target.result获取到文件内容。

  然后再对文件内容进行解码,用到的就是audioContext对象里的decodeAudioData方法。根据官方API文档得知,该方法有三个参数:第一个是就是音频ArrayBuffer对象,第二个是成功解码完毕后的回调,第三个是解码失败后的回调

function changeBuffer(file){
            var fr = new FileReader();
            fr.onload = function(e){
                var fileResult = e.target.result;
                AC.decodeAudioData(fileResult , function(buffer){
                    playMusic(buffer)
                }, function(e){
                    console.log(e)
                    alert("文件解码失败")
                })
            }
            fr.readAsArrayBuffer(file);
        }

  

  解码成功后悔调用playMusic方法,并且传入解码后的buffer数据,此时实例化一个AudioBufferSource对象,AudioBufferSource对象的属性有五个。分别是:buffer、playbackRate、loop、loopstart和loopend,buffer自然就是音频buffer数据,playbackRate是渲染音频流的速度,其默认值是1。loop则是播放循环属性,默认为false,如果设为true则会循环播放音频。loopstart和loopend则是循环开始和结束的时间段,以秒为单位,默认值均为0,只有当loop的值为true的时候这两个属性才会起效。

  实例化AudioBufferSource对象后,要给与音频一个输出目的地,也就是要将音频连接到扬声器上,通过connect(audioContext.destination)连接。

  然后创建一个分析器,直接通过createAnalyser方法创建一个分析器。同样,通过connect方法将音频跟分析器连接起来。

  准备完毕后,则调用start方法,开始播放音频。然后再跳转到canvas的绘图方法animate中,将音谱绘制出来。

var analyser;
        function playMusic(buffer){
            var absn = AC.createBufferSource();
            analyser = AC.createAnalyser();
            absn.connect(analyser);
            absn.connect(AC.destination);
            absn.buffer = buffer;
            absn.loop = true;
            absn.start(0);
            animate()
        }

  

  前面两段代码楼主也不是很懂,看了官方API得知analyser的frequencyBinCount的值为:Half the FFT size,而据楼主网上查的资料得知FFT是离散傅立叶变换的快速算法,可以将一个信号变换到频域。有些信号在时域上是很难看出什么特征的,但是如果变换到频域之后,就很容易看出特征了。同时FFT还可以将一个信号的频谱提取出来。也就是说这两段代码应该就是使用FFT算法将音频各个频率的信息提取出来转换成数组,数组里的每一个值都代表音频在当前频率的信号量。根据这些信号量就可以很清晰的看出各个频率的差别

  获取到各个频率的信号量后,就可以通过这些参数进行绘制不同的条形图,就完成了最简单的音频动画了。

function animate(){
            var array = new Uint8Array(analyser.frequencyBinCount);
            analyser.getByteFrequencyData(array);
ctx.clearRect(
0,0,canvas.width,canvas.height); for(var i=0;i<array.length;i+=10){ ctx.fillRect(i,canvas.height-array[i] , 10 , array[i]); ctx.strokeStyle = "#FFF" ctx.strokeRect(i,canvas.height-array[i] , 10 , array[i]); } RAF(animate) }

 

下面贴出全部代码:

Web Audio API DEMO
<!doctype html>
<html lang="en">
<head>
    <meta charset="UTF-8" />
    <title>Document</title>
    <style type="text/css">
        #cas{
            position: absolute;
            left:0;top:0;bottom: 0;right: 0;
            margin: auto;
            border: 1px solid;
        }
    </style>
</head>
<body>
    <input type="file" name="" id="music" />
    <canvas id="cas" width="1000" height="540"></canvas>
    <script type="text/javascript" charset="utf-8">
        var music = document.getElementById("music"),canvas = document.getElementById("cas"),ctx=canvas.getContext("2d");
        
        window.AudioContext= window.AudioContext||window.webkitAudioContext||window.mozAudioContext;
        window.RAF =  (function(){
            return window.requestAnimationFrame || window.webkitRequestAnimationFrame || window.mozRequestAnimationFrame || window.oRequestAnimationFrame || window.msRequestAnimationFrame || function (callback) {window.setTimeout(callback, 1000 / 60); };
        })();
        
        var AC = new AudioContext();
        
        music.onchange = function(){
            if(music.files.length!==0){
                changeBuffer(music.files[0]);
            }
        }
        
        function changeBuffer(file){
            var fr = new FileReader();
            fr.onload = function(e){
                var fileResult = e.target.result;
                AC.decodeAudioData(fileResult , function(buffer){
                    playMusic(buffer)
                }, function(e){
                    console.log(e)
                    alert("文件解码失败")
                })
            }
            fr.readAsArrayBuffer(file);
        }
        
        var analyser;
        function playMusic(buffer){
            var absn = AC.createBufferSource();
            analyser = AC.createAnalyser();
            absn.connect(analyser);
            absn.connect(AC.destination);
            absn.buffer = buffer;
            absn.loop = true;
            absn.start(0);
            animate()
        }
        
        function animate(){
            var array = new Uint8Array(analyser.frequencyBinCount);
            analyser.getByteFrequencyData(array);
            ctx.clearRect(0,0,canvas.width,canvas.height);
            for(var i=0;i<array.length;i+=10){
                ctx.fillRect(i,canvas.height-array[i] , 10 , array[i]);
                ctx.strokeStyle = "#FFF"
                ctx.strokeRect(i,canvas.height-array[i] , 10 , array[i]);
            }
            RAF(animate)
        }
    </script>
</body>
</html>
View Code

 

Web Audio API DEMO,布布扣,bubuko.com

Web Audio API DEMO

上一篇:Python:获取类中除内置方法外的所有方法名


下一篇:photoshop 合成一幅绿意盎然的江南烟雨诗意图