这节主要介绍WebRTCDemo的结构,以此来简单了解WebRTC的调用流程,转载请说明出处(博客园RTC.Blacker)

1、先看WebRTCDemo的代码结构,如下图:

Android WebRTC 音视频开发总结(二)-- webrtcdemo介绍-LMLPHP

2、WebRTCDemo中音视频管理接口--MediaEngine,包括操作音频和视频的接口,详见MediaEngine的实现。

Android WebRTC 音视频开发总结(二)-- webrtcdemo介绍-LMLPHP

3、jni实现:细心的读者会发现WebRTCDemo下面有一个jni目录,这是android提供的调用本地代码的方式,即Java Native Call(读者如想详细了解JNI是怎么回事,可以买本书或找些相关资料来看看,这里面涉及到NDK编译,JNI语法)。

MediaEngine中native方法最终都是通过Jni下面的video_engine_jni.cc和video_engine_jni.cc来实现的,这些Jni方法最终就转到WebRTC提供的接口类中去了,即VoiceEngine和VideoEngine,顺着这个思路再看源代码就比较容易理解了。

4、如何调试WebRTCDemo中的c++代码?

根据JNI要求,需要用NDK编译WebRTCDemo,不过目前WebRTCDemo是直接调用现成的libwebrtcdemo-jni.so,如果要调试得自己写一个Andorid.mk文件将相关源代码加进来,几乎涉及大部分WebRTC代码,这样工作量有点大,所以放弃了。

WebRTCDemo过滤和查看日志的具体方法如下(TraceLevel选项很多,可根据自己需求选择):

 public void setTrace(boolean enable, VideoEngine.TraceLevel traceLevel) {
if (enable) {
vie.setTraceFile("/sdcard/trace.txt", false);
vie.setTraceFilter(traceLevel);// huly
return;
}
vie.setTraceFilter(VideoEngine.TraceLevel.TRACE_NONE);
}

后面我还会具体讲到自定义开发中如果修改底层代码排查问题。

5、肯定有人会问IOS下WebRTCDemo在哪里?是怎么实现的?

答案:请继续关注

题外话:被微软宠坏了兄弟们,在linux下改webrtc代码蛋疼了吧,哈哈哈!

04-14 18:07