live555linux编译
㈠ ios平台下live555静态库的编译及打包成.a文件
因为你执行的是./genMakefiles iphoneos ,所以得到的.a文件只支持真机环境下,同理执行./genMakefiles iphone-simulator,得到的是支持模拟器环境下的.a文件,编译结束最终得到支持真机和模拟器下的四个.a文件,如下图:
如何打包成一个静态库.a文件,请参考 http://blog.csdn.net/qq_26968709/article/details/51164104
如果需要打包好的库文件,直接下面留言。
㈡ live555的性能不给力,该怎么处理
我在开发板上移植了live555MediaServer,可以实现正常的传输。但似乎性能很不高,当进行16路D1的数据传输时,系统从硬盘上读取视频文件,CPU的idle时间几乎为0,以下是我用top命令看到的系统性能:
Live555MediaServer 进程占用CPU-- 50%
用户态时间: 17%
内核态时间: 23%
idle时间: 0%
io时间 : 50%
如此,还没运行其他应用,CPU就已经被全部占满了,显然无法工作。
各位帮帮忙,告诉我有没有改进的方法(代码最好),或者其他的替代live555的方案(除了gstreamer)
------解决方案--------------------------------------------------------
提高硬盘IO的效率,你不妨做个测试,只是硬盘读取38M数据看看占用多少cpu。
如果确认是IO的问题,不妨尝试采用dio来提高读取的效率。
可参考 基于linux的Socket网络编程的性能优化。 我以前就对live555的接收模块做了优化,CPU占用小30%。
㈢ live555移植到hi3516做rtsp服务器
live555库本身实现了做rtsp服务器,客户端可以通过rtsp客户端访问服务器上的文件并播放,支持的文件格式如下:
本次任务实现了把live555移植到嵌入式海思芯片hi3516上做rtsp服务器,除了支持客户端播放服务器上上面格式文件外,另添加了实时播放hi3516摄像头图像与音频的功能。
live555源码目录如下:
四个基本的库分别是:BasicUsageEnvironment, groupsock, liveMedia和UsageEnvironment。
编译后即生成这4个库文件:
这里我只简单说下liveMedia库的功能,其他三个库是live555运行的基础库,太(mei)简(yan)单(jiu),就不说了。
liveMedia库包含了音视频相关的所有功能,包含音视频文件的解析,RTP传输封装等,我们可以看到这个目录下有对h264、AAC等文件解析的支持:
交叉编译过程:略
这里我主要是修改mediaServer文件夹下的示例程序,添加实时预览摄像头图像与mic声音功能。
hi3516芯片,视频编码格式为h264,音频编码格式为AAC。
1.添加音频AAC支持
添加类 ADTSAudioLiveSource ,继承自FramedSource
在该类的doGetNextFrame函数里实现获取hi3516音频数据做为rtsp服务器音频源。
注意点:
1.1 adts默认是带7字节或者9字节的头,传给rtsp的时候是要去掉头的,实际上RTSP通过rtp传输AAC帧的时候是不带adts头的,而是带4个字节的mpeg4-generic头。
1.2 从FramedSource继承而来的变量
每次doGetNextFrame帧时,从FIFO里取一个完整的AAC帧,把帧拷贝到fTo buf里面,然后比较帧大小与fMaxSize来赋值几个关键的变量:
注意,不管帧长是否大于fMaxSize,每次都需要把完整的帧拷贝到fTo指针,live555内部会根据fNumTruncatedBytes等变量自行处理分包。
1.3 doGetNextFrame函数最后不管有没有取到帧,都需要执行FramedSource::afterGetting
1.4 采样率,通道数,configstr等的计算
这几个变量在mediaSubbsession建立RTPsink时要用到,它直接影响了SDP里对于AAC音频描述字段的产生
添加类 ,继承自
createNewStreamSource函数创建上面的ADTSAudioLiveSource做为音频输入源,参数estBitrate为预估的码率,海思AAC编码码率设置为24kbps,所以estBitrate设置为24.
createNewRTPSink有必要继承,因为需要根据音频源的采样率、通道数等创建RTPSink.
2.添加h264支持
添加 H264FramedLiveSource ,继承自FramedSource
unsigned maxFrameSize()函数必须继承,里面设置帧最大可能的大小,我设置为100000,如果不继承就是默认的,会出现画面马赛克
doGetNextFrame函数里面和AAC取帧的处理差不多,我加多了一个步骤,就是第一次取帧的时候会调用接口去产生一个关键帧,并且等待这个关键帧到来才处理,这样连接后出图会比较快。
添加类 ,继承自
这个类就是实现createNewStreamSource时创建H264FramedLiveSource
3.修改DynamicRTSPServer
修改类DynamicRTSPServer,在lookupServerMediaSession函数里动点手脚,默认在这个函数里面会根据文件名去寻找服务器下相应的文件做为直播源,我这里比较如果是我特定的live源名字则直接返回,相应的live源创建rtsp服务器的时候就添加好
4.初始化rtsp server
初始化rtsp服务器,添加一个ServerMediaSession,该mediaSession添加一个和一个,然后把该mediaSession添加给rtsp服务器。
客户端访问 rtsp://x.x.x.x/ch0.live 时就可以看到实时的摄像头图像与声音啦!
㈣ live555、jrtplib、ortp、gstreamer,用哪一个比较好呢解决方法
接收端想在WindowsPC机上观看。
本人正在读研,以前几乎没接触网络传输。看了很长时间的资料,看大家用的最多的就是live555和jrtplib了,但是这两个都是用C++写的,而我的采集和编码都是用C语言写的。至于ortp和gstreamer好像用的人不多。
------解决方案--------------------------------------------------------
服务器端使用live555、jrtplib,客户端建议如果是windows建议使用DITRECTSHOW,是LINUX建议使用GSTREAMER,至于解码使用ffmpeg就可以了
㈤ 开源的视频传输框架 linux下可调 像live555 ffmpeg 之类的 还有那些 具体是什么 最好有对比的文章资料
gstreamer
不是很懂流媒体,不过以前用过gstreamer 做rtsp服务器