正文
行的gnu静态库链接路径是针对NDK版本 r8d 的,如读者版本不匹配,请自行找到 libgnustl_static.a 静态库的路径进行替换。
3)本示例并不打算编译 WebRTC 的测试工程,请使用 Eclipse 搜索文件功能,找到 Android.mk 文件中的 -DWEBRTC_AUDIOPROC_DEBUG_DUMP 并注释掉。
step 3.4
万事俱备,我们可以开始编译 APM 了,不过在编译过程中肯定还会有很多小问题出现(比如相对路径不正确、找不到某某函数的符号等等),这些问题就留给读者自行google、SO解决了,bill就不再赘述。
Step 4 - 在android应用中使用APM的注意事项
经过上述步骤,读者便能够得到 libwebrtc_audio_preprocessing.so这个动态链接库。我们需要做的仅仅是编写自己的 jni 包装函数向 android 应用层提供 APM 的接口。具体做法bill之前的文章已经详细介绍过。这里需要注意的是,如果读者打算在自己的动态库中引用已经编译好的 APM 库,那么在 android 类加载这两个库时的顺序是敏感的。
假设读者将自己的 JNI 接口封装成单独的库 libmy_jni_wrapper.so,而该库引用了 libwebrtc_audio_preprocessing.so,那么在加载这两个库时应该参照如下顺序:
1
2
3
4
5
|
static {
// Ordering of loading these shared libraries is significant.
System.loadLibrary( "webrtc_audio_preprocessing" );
System.loadLibrary( "my_jni_wrapper" );
} |
若顺序写反,在运行时将得到找不到 webrtc_audio_preprocessing 库中符号的异常。
总结
整个编译工作在现在看来非常简单,但需要很多的耐心和搜索,不过结果还是令人比较满意的,APM出来的效果比之前自己单独使用各个音频模块要好很多。不过对于抖动等因素的影响,APM就力不从心了。也许bill接下来该花时间去看看NetEq、Jitter Buffer等模块了。如何使用他们,如何融进自己的项目,到时候就知道了。
参看了您的博文之后,关于回音处理部分我的项目也基本完成了,正像您所说的,在网络比较差的时候,由于延时与抖动,和丢包所引起的质量下降。而我的下一步也是想把NetEQ使用自己的项目中。如果您有什么进展的话,期望能和您一起讨论讨论。
bin/../lib/gcc/arm-linux-androideabi/4.6/../../../../arm-linux
d.exe: E:/cygwin/home/simon/WebRTC/obj/local/armeabi/libwebrtc
dio_device_opensles_android.o): in function webrtc::AudioDevic
MicrophoneIsAvailable(bool&):E:/cygwin/home/simon/WebRTC/jni/w
o_device/android/audio_device_opensles_android.cc:167: error:
e to 'webrtc::OpenSlesInput::MicrophoneIsAvailable(bool&)'
您好it206,
最近没有倒腾android上的回声消除了,效果和之前是一样的,好的时候很好,差的时候总能听到唧唧声,很不爽。现在效果很不完美。关于apk,那是团队的成果了,我没有权力拿出来分享,博客里我已经把自己能分享的都分享给大家了,忘海涵。
您好,APM各个接口的使用方法在其头文件 audio_processing.h 中描述的很清楚。android上由于没有控制MIC音量的接口,故APM中的AGC不要使用 kAdaptiveAnalog 模式。
,我查找了,在webrtc/system_wrappers/source/Android.mk 文件中添加了$(call import-module,android/cpufeatures)
,可以编译通过这个错误了,这是正确解决方法?另外编译system_wrappers/source/Android.mk,又遇到提示一个错误:system_wrappers/source/spreadsortlib/spreadsort.hpp:1034:139: error: macro "getchar" passed 2 arguments, but takes just 0;这个真心不知道什么错误,很想问,Bill_Hoo,你在编译过程,又遇到这些错误?这我应该如何解决呢,有点困惑。
你好,IOS 上仅使用了 NS降噪 和 NetEQ 抖动缓冲,回声消除交由其自身的 API 实现更加合适。
https://github.com/billhoo/webrtc-based-android-aecm
但是现在已经无法下载了 可否给我一份作为研究 不胜感激 71892967@qq.com
它不是用AudioRecord.read这种阻塞式函数读取录到的数据,
而是和ios中AudioQueue类似的填满一个缓冲区即回调的方式,我想这样是不是更容易计算延迟一些呢?
[armeabi] Compile arm : webrtc_spl <= auto_corr_to_refl_coef.c
jni/webrtc/common_audio/signal_processing/auto_corr_to_refl_coef.c:17:85: fatal error: webrtc/common_audio/signal_processing/include/signal_processing_library.h: No such file or directory
您好,根据你的错误路径提示,编译 auto_corr_to_refl_coef.c 的 Android.mk 至少应该包含路径:
“$(LOCAL_PATH)/../../../..”,即目录“jni”。
也就是说,你需要让编译器能够找到根目录 “webrtc”
您好,GitHub上的示例我已经删除了,那是当时自己最开始自以为是的认为手机上的回声消除很简单,所以有了一个直接使用AECM对静态音频文件进行消除的例子。但实际上VoIP和静态文件是两码事。为避免误导他人,故已删除。
就个人经验而言,Java层的 AudioTrack 以及 AudioRecord 实在不适合(未考虑最新版本的Android)做所谓的“延迟估算”。OpenSLES 我没有实际测试过,不敢妄言。
回复 liuliu886:
[14楼]
你好,IOS 上仅使用了 NS降噪 和 NetEQ 抖动缓冲,回声消除交由其自身的 API 实现更加合适。
你好,bill。请问IOS具体哪个API可以用来消除回声呢?
http://wiki.elesos.com/index.php?title=WebRTC%E7%B3%BB%E5%88%974:%E9%9F%B3%E9%A2%91%E5%A4%84%E7%90%86%E6%A8%A1%E5%9D%97apm%E4%B8%8B%E8%BD%BD%E4%B8%8E%E6%95%B4%E4%BD%93%E7%BC%96%E8%AF%91