推流脚本
㈠ 关于ffmpeg推流,如何推流一个文件夹里的所有视频或者多个视频
如果你想推流一个文件夹里的所有视频,你可以使用通配符(wildcard)来匹配文件夹中的所有视频。例如,你可以使用 -i /path/to/folder/*.mp4 来匹配文件夹中所有的 MP4 视频文件。
如果你想推流多个视频,你可以使用 -i 参数多次指定视频文件的路径。例如,你可以使用 ffmpeg -re -i video1.mp4 -i video2.mp4 -vcodec libx264 -acodec aac -f flv rtmp://localhost:1935/rtmplive/home 来推流 video1.mp4 和 video2.mp4 这两个视频。
你也可以使用 -f concat 参数来将多个视频文件合并成一个输入源,然后使用 -i 参数指定合并后的视频文件。这样,你就可以使用单个命令推流多个视频。例如:
ffmpeg -f concat -safe 0 -i list.txt -c output.mp4
ffmpeg -re -i output.mp4 -vcodec libx264 -acodec aac -f flv rtmp://localhost:1935/rtmplive/home
其中,list.txt 是一个文本文件,其中包含了要合并的视频文件的列表。每一行的格式为 file '/path/to/video.mp4'。例如:
file '/path/to/video1.mp4'
file '/path/to/video2.mp4'
file '/path/to/video3.mp4'
这样,你就可以使用两条命令推流多个视频了。
㈡ 用SRS快速搭建WebRTC推流和播放
WebRTC目前已经比较成熟了,播放也比较稳定,协议也已经成为了RFC,相应的开源项目也比较多。当然我觉得WebRTC还缺一个高性能简单易用的服务器,之前也分析过现有的服务器,有各种问题,SRS很有机会解决这些问题。
目前SRS对WebRTC的支持进度如下:
相关Wiki:
在线演示,RTMP推流,HTTP-FLV和WebRTC播放:
在线演示,WebRTC推流,WebRTC播放:
自己用SRS搭建WebRTC服务器,也非常容易,下面是操作步骤。
注意:必须要将本机的IP传给Docker,否则会推流和播放失败。
可以直接传本机IP,例如: 192.168.1.3 。如果觉得直接传IP比较麻烦,可以用脚本获取IP。
macOS下执行命令,直接设置IP:
macOS下执行命令,用脚本获取IP:
CentOS下执行命令,用脚本获取IP:
启动后,可以访问 http://localhost:8080/ ,确认是否启动成功。
Docker一定要设置对这个IP,否则会出现推流和播放失败。
演示,WebRTC推流和播放,链接:
演示,RTMP推流,WebRTC播放。首先,用FFMPEG或OBS推送RTMP流到服务器:
可播放的流地址: