这两天研究了FFmpeg发送流媒体的命令,在此简单记录一下以作备忘。
1.UDP
1.1. 发送H.264裸流至组播地址
注:组播地址指的范围是224.0.0.0—239.255.255.255
下面命令实现了发送H.264裸流“chunwan.h264”至地址udp://233.233.233.223:6666
ffmpeg -re -i chunwan.h264 -vcodec copy -f h264 udp://233.233.233.223:6666
注1:-re一定要加,代表按照帧率发送,否则ffmpeg会一股脑地按最高的效率发送数据。
注2:-vcodec copy要加,否则ffmpeg会重新编码输入的H.264裸流。
1.2. 播放承载H.264裸流的UDP
ffplay -f h264 udp://233.233.233.223:6666
注:需要使用-f说明数据类型是H.264
播放的时候可以加一些参数,比如-max_delay,下面命令将-max_delay设置为100ms:
ffplay -max_delay 100000 -f h264 udp://233.233.233.223:6666
1.3. 发送MPEG2裸流至组播地址
下面的命令实现了读取本地摄像头的数据,编码为MPEG2,发送至地址udp://233.233.233.223:6666。
ffmpeg -re -i chunwan.h264 -vcodec mpeg2video -f mpeg2video udp://233.233.233.223:6666
1.4. 播放MPEG2裸流
指定-vcodec为mpeg2video即可。
ffplay -vcodec mpeg2video udp://233.233.233.223:6666
2.RTP
2.1. 发送H.264裸流至组播地址。
下面命令实现了发送H.264裸流“chunwan.h264”至地址rtp://233.233.233.223:6666
ffmpeg -re -i chunwan.h264 -vcodec copy -f rtp rtp://233.233.233.223:6666>test.sdp
注1:-re一定要加,代表按照帧率发送,否则ffmpeg会一股脑地按最高的效率发送数据。
注2:-vcodec copy要加,否则ffmpeg会重新编码输入的H.264裸流。
注3:最右边的“>test.sdp”用于将ffmpeg的输出信息存储下来形成一个sdp文件。该文件用于RTP的接收。当不加“>test.sdp”的时候,ffmpeg会直接把sdp信息输出到控制台。将该信息复制出来保存成一个后缀是.sdp文本文件,也是可以用来接收该RTP流的。加上“>test.sdp”后,可以直接把这些sdp信息保存成文本。
2.2. 播放承载H.264裸流的RTP。
ffplay test.sdp
3.RTMP
3.1. 发送H.264裸流至RTMP服务器(FlashMedia Server,Red5等)
面命令实现了发送H.264裸流“chunwan.h264”至主机为localhost,Application为oflaDemo,Path为livestream的RTMP URL。
ffmpeg -re -i chunwan.h264 -vcodec copy -f flv rtmp://localhost/oflaDemo/livestream
3.2. 播放RTMP
ffplay “rtmp://localhost/oflaDemo/livestream live=1”
注:ffplay播放的RTMP URL最好使用双引号括起来,并在后面添加live=1参数,代表实时流。实际上这个参数是传给了ffmpeg的libRTMP的。
有关RTMP的处理,可以参考文章:ffmpeg处理RTMP流媒体的命令大全
4.测延时
测延时有一种方式,即一路播放发送端视频,另一路播放流媒体接收下来的流。播放发送端的流有2种方式:FFmpeg和FFplay。
通过FFplay播放是一种众所周知的方法,例如:
ffplay -f dshow -i video="Integrated Camera"
即可播放本地名称为“Integrated Camera”的摄像头。
此外通过FFmpeg也可以进行播放,通过指定参数“-f sdl”即可。例如:
ffmpeg -re -i chunwan.h264 -pix_fmt yuv420p –f sdl xxxx.yuv -vcodec copy -f flv rtmp://localhost/oflaDemo/livestream
就可以一边通过SDL播放视频,一边发送视频流至RTMP服务器。
注1:sdl后面指定的xxxx.yuv并不会输出出来。
注2:FFmpeg本身是可以指定多个输出的。本命令相当于指定了两个输出。
播放接收端的方法前文已经提及,在此不再详述。
相关推荐
运用Qt框架+FFmpeg音视频解码库实现RTMP流媒体播放器,通过实时拉流视频流传到界面进行视频显示
vs2017+qt+ffmpeg 开发的视频播放工具,最简单的播放功能,可以播放rtsp流,rtmp流,udp流。
本例子实现了推送本地视频至流媒体服务器(以RTMP为例)。 是使用FFmpeg进行流媒体推送最简单的教程。
Windows 下 用MSYS2 MinGW 64-bit 编译 ffmpeg , 使之 支持 h265 rtmp 推流 资源文件。
这是QT+FFMPEG设计的流媒体播放器完整源码 1. 支持RTMP流播放 2. 支持RTSP流播放 3. 支持音频播放 4. 支持视频播放 编译器: MinGW 32位 QT版本: 5.12.6
本文档记录了利用ffmpeg将摄像机采集的rtsp视频流转换为rtmp视频流,并推送到rtmp服务器red5的详细步骤。最终可以供VLC、web页面访问并展示rtmp视频。
C# winform VLC 显示流媒体 及ffmpeg 存储流媒体 demo
ffmpeg推流视频文件 nginx+rtmp服务器
这是在windows下使用QT+FFMEG设计的拉流软件,可以拉取流媒体的视频和音频数据进行播放。 源码地址:https://blog.csdn.net/xiaolong1126626497/article/details/105412560?utm_source=app
可以用Android Studio软件将ffmpeg编译成APK程序,在安卓手机上运行,实现播放音视频,手机音视频直播,将MIC麦克风和摄像头采用RTMP方式推流,支持AAC格式(官方),已经支持了PCM格式推流(修改后版本)和MP3格式...
本例子实现了推送本地视频至流媒体服务器(以RTMP为例)。是使用FFmpeg进行流媒体推送最简单的教程。 1.1版本增加了多平台下编译的支持:Windows,MacOS,以及Linux。
本资源包含完整的Vs+Qt+FFmpeg代码。 资源介绍:https://blog.csdn.net/automoblie0/article/details/124830219 资源视频介绍:https://www.bilibili.com/video/BV1pN4y137Mo/?spm_id_from=333.999.0.0 【视频中展示...
解压得到video文件夹,放到/data目录下,然后吧视频放到mp4文件夹,执行nohup sh scheduled.sh & 命令即可
利用ffmpeg编解码库推本地图片或者本地摄像头成rtmp流,资源内容为cpp文件,ffmpeg编译时需要注意版本,不然会出现未定义出错,ffmpeg新旧库更新问题。 可更改代码中部分参数,降低延迟以及提高推流图像的质量。
C#开发FFMPEG例子(API方式) FFmpeg拉取RTMP流并播放原始源码
ffmpeg推拉流_rtmp内网穿透
Andorid 项目中使用FFmpeg拉取RTSP流 然后 推送到RTMP服务器
用C#Winform写的GB28181监控项目,采用FFMpeg解码,推RTMP流,推流需要Nginx-RTMP配合,在我的另一个资源里有,可以实现稳定接收和解码推流播放,播放用FFPlay直接播放即可测试。因为是测试项目,只支持一路视频播放...
这两个东西通过一个nginx的模块nginx-rtmp-module,组合在一起即可以搭建一个功能相对比较完善的流媒体服务器. 这个流媒体服务器可以支持RTMP和HLS(Live Http Stream) 从安装开始 Nginx的安装参照我之前的这个: ...