前段时间在搞webrtc iOS开发,因此将标题改成了Android IOS WebRTC 音视频开发总结, 下面都是开发过程当中的经验总结,转载请说明出处(博客园RTC.Blacker):html
1. IOS WebRTC音视频编译和下载: 有过android WEBRTC编译下载经验再去弄IOS,你会发现简单多了,再有问题,可参考:android
1.一、http://www.cnblogs.com/ProbeStar/p/3411510.html 记住有MAC和IOS两个版本,要指定好你想要哪一个版本.ios
1.二、webrtc ios不支持直接用xcode编译,他给出的解决方案:经过xcode调用ninja,经过ninja编译,跟命令行同样的效果,不过调试方便多了。c++
2. 正确区分armv7 armv7s i386平台,ios开发编译的时候常常会碰碰到找不到armv7 .a文件之类的错误:web
2.一、armv7,armv7s,amd64是真机用的,i386是模拟器用的,明白了这一点对你解决相似问题颇有帮助。设计模式
2.二、查看.a文件架构的命令:lipo -info libwebrtc.a xcode
2.三、合并.a文件的命令:lipo -create lib.armv7.a lib.arm64.a -output lib.a架构
2.四、合并不一样.a文件的命令:libtool -static -o dest.a lib*.a; strip -S -x -o dest2.a -r dest.a;app
2.五、webrtc现已支持arm64(我已经编译成功了),这也是响应苹果商店上架审核要求,详见:https://developer.apple.com/news编码
3. 正确区分.m和.mm文件:
3.一、有一次编译出现一个奇怪的问题,提示找不到string.h文件,折腾了半天都没搞定,很纳闷这文件不是系统自带的吗?后来才发现是本身.m文件里面调用了C++代码形成的,解决方式就是将.m改为.mm。
4. webrtc iOS开发与调试:
4.一、调试webrtc在Android基本上都是经过日志(后面会写到怎么加日志),但i可将代码加进去调试,为苹果点赞,VS还没作这么好。
4.二、xcode里面object c. c. c++代码能够相互调用,好强,这个优势让我一眼就喜欢上了Xcode,
5. 代码架构都是同样的,因此弄懂了一套再去弄另外一套就比较容易了,不过若是不熟悉另外一个平台开发则仍是要点成本的:
5.一、讲设计模式的书不少,其实优秀源代码就是最好的书籍,webrtc代码就是一本介绍涉及模式的优秀书籍,如工厂模式,模版模式。
5.二、有些模的具体实现仍是有些不同的,如音频设备操做在android上用的是opensles,苹果上就不是这么搞的。
6. 视频的时候图像显示不了或一方有图像另外一方没有图像,具体缘由不少:
6.一、首先你得经过抓包查看收发数据是否正常,其次逻辑判断找出可能出问题的模块,最后经过调试或设置断点来具体查找。
6.二、理清视频图像捕获、处理、编码、发送、接收、解码、显示、验证这个逻辑对你处理相似问题有很大帮助,后面会整理流程图。
6.三、开始视频前会先发送KeyFrame(KeyFrame和DeltaFrame分别表示是完整图像仍是差别图像), KeyFrame间隔可自定义.
6.四、 不少人容易混淆RTP RTCP RTSP:RTP RTCP是传输层协议,RTSP是应用层协议,相似http。
最后:关于问别人问题,发现不少新手在一些群里问的问题要么很泛,要么别人已经回答了N次,同时寄但愿于大神出来帮他直接解决,甚至巴不得别人帮你调试代码,太不现实了,不过你愿意另外花钱买服务又另当别论了,依个人观察来看真正的大牛都是不怎么说话的,基本上都在潜水.
更多经验陆续补充...