FFmpeg开发笔记(二十六)Linux环境安装ZLMediaKit实现视频推流

ffmpeg,linux,zlmediakit · 浏览次数 : 0

小编点评

## ZLMediaKit 操作步骤 **一、编译安装ZLMediaKit** 1. 安装依赖包: * yum install gityum install opensslyum install libsrtp2 2. 下载ZLMediaKit的源代码: * cd /usr/local/srcgit clone --depth 1 https://gitee.com/xia-chu/ZLMediaKit3 * 进入ZLMediaKit的代码目录:cd ZLMediaKitgit submodule update --init4 3. 配置ZLMediaKit: * mkdir buildcd buildcmake .. -DENABLE_WEBRTC=on5 * 编译ZLMediaKit:make6、编译完成后,运行make install命令执行完毕,ZLMediaKit的可执行程序将安装到ZLMediaKit源码路径的release/linux/Debug目录下。 **二、编译安装FFmpeg** 1. 在Linux系统中编译FFmpeg: * 执行命令:./ffmpeg -re -stream_loop -1 -i \"/usr/local/src/test/2018s.mp4\" -vcodec h264 -f rtsp rtsp://127.0.0.1/live/test若想将本地视频通过RTMP协议推流给ZLMediaKit,则需执行以下命令。 * ffmpeg -re -stream_loop -1 -i \"/usr/local/src/test/2018s.mp4\" -vcodec h264 -f flv rtmp://127.0.0.1/live/test2 * 打开VLC播放器,依次选择菜单“媒体”→“打开网络串流”,在网络URL框中输入下列任一地址,观看能否正常播放视频画面: * rtsp://124.***.***.***/live/testrtmp://124.***.***.***/live/testhttp://124.***.***.***:8080/live/test/hls.m3u8http://124.***.***.***:8080/live/test.live.tshttp://124.***.***.***:8080/live/test.live.mp4http://124.***.***.***:8080/live/test.live.flv **三、启动ZLMediaKit和FFmpeg服务** 1. 启动ZLMediaKit服务:./MediaServer -d & 2. 启动FFmpeg服务:./ffmpeg -re -stream_loop -1 -i \"/usr/local/src/test/2018s.mp4\" -vcodec h264 -f rtsp rtsp://127.0.0.1/live/test **四、检查视频推拉流** 1. 使用VLC播放器,选择“媒体”→“打开网络串流”,在网络URL框中输入: * rtsp://124.***.***.***/live/testrtmp://124.***.***.***/live/testhttp://124.***.***.***:8080/live/test/hls.m3u8http://124.***.***.***:8080/live/test.live.tshttp://124.***.***.***:8080/live/test.live.mp4http://124.***.***.***:8080/live/test.live.flv **总结:** 1. 生成视频推拉流需要带简单的排版。 2. 编译工具:ffmpeg、gityum、opensslyum、libsrtp2 3. 启动服务:./ffmpeg -re -stream_loop -1 -i \"/usr/local/src/test/2018s.mp4\" -vcodec h264 -f rtsp rtsp://127.0.0.1/live/test 4. 检查视频是否正常播放

正文

《FFmpeg开发实战:从零基础到短视频上线》一书在第10章介绍了轻量级流媒体服务器MediaMTX,通过该工具可以测试RTSP/RTMP等流媒体协议的推拉流。不过MediaMTX的功能实在是太简单了,无法应用于真实直播的生产环境,真正能用于生产环境的流媒体服务器还要看SRS或者ZLMediaKit。

ZLMediaKit是一款国产的开源流媒体服务器,它基于C++11开发,支持多种流媒体协议(RTSP/RTMP/HLS/HTTP-FLV/WebSocket-FLV/GB28181/HTTP-TS/WebSocket-TS/HTTP-fMP4/WebSocket-fMP4/MP4/WebRTC),支持的音视频编码标准包括H265、H264、AAC、G711、OPUS等。
通过结合FFmpeg与ZLMediaKit,可以很方便地测试音视频的推拉流。接下来以华为的欧拉系统为运行环境,介绍如何编译、安装、调试ZLMediaKit,详细的操作步骤说明如下。

一、编译安装ZLMediaKit

1、登录Linux服务器(比如华为云的欧拉系统),运行下列命令安装ZLMediaKit的依赖包。

yum install git
yum install openssl
yum install libsrtp

2、执行下面命令从gitee下载ZLMediaKit的源码。

cd /usr/local/src
git clone --depth 1 https://gitee.com/xia-chu/ZLMediaKit

3、进入ZLMediaKit的源码目录,执行下面命令更新ZLMediaKit的依赖模块源码。

cd ZLMediaKit
git submodule update --init

4、依次运行下面命令配置ZLMediaKit。

mkdir build
cd build
cmake .. -DENABLE_WEBRTC=on

5、运行下面命令编译ZLMediaKit。

make

6、编译完成后,运行下面命令安装ZLMediaKit。

make install

命令执行完毕,ZLMediaKit的可执行程序将安装到ZLMediaKit源码路径的release/linux/Debug目录下。

二、编译安装FFmpeg

在Linux系统编译安装FFmpeg的详细步骤参见《FFmpeg开发实战:从零基础到短视频上线》一书的“1.2  Linux系统安装FFmpeg”,这里不再赘述。

三、启动ZLMediaKit

1、进入ZLMediaKit的安装目录:

cd /usr/local/src/ZLMediaKit/release/linux/Debug

2、打开配置文件config.ini,把http标签下的sslport值改为8443,如下所示。

sslport=8443

把http标签下的port值改为8080,如下所示。

port=8080

修改完毕,保存并退出config.ini。
3、执行下面命令,启动MediaServer服务。

./MediaServer -d &

若想启用安全协议SSL,则执行下面命令,启动带默认https证书的MediaServer服务。

./MediaServer -d -s ./default.pem &

4、检查服务器是否开启了下列端口:
554端口,用于rtsp协议,访问“rtsp://”开头的直播地址需要。
1935端口,用于rtmp协议,访问“rtmp://”开头的直播地址需要。
8080端口,用于http协议,访问“http://”开头的直播地址需要。
8443端口,用于https协议,访问“https://”开头的直播地址需要。

四、检查ZLMediaKit的视频推拉流

视频推流有RTSP和RTMP两种常见的流媒体协议。其中RTSP全称为“Real Time Streaming Protocol”(实时流传输协议),它由RealNetworks和网景公司共同提交。RTSP协议支持双向传输,允许服务器端和客户端之间实时通信,常用于需要播放、暂停、快进、快退等控制操作的视频点播场合。
RTMP全称为“RTMP    Real Time Messaging Protocol”(实时消息传输协议),它由Adobe公司提交。RTMP协议只支持单向传输,只允许从服务器端传输信息到客户端,常用于实时性较强的视频直播,比如带货直播、视频会议、在线课堂等场合。
下面通过ffmpeg把视频源推流给ZLMediaKit,并使用VLC播放器观察视频拉流效果。
1、执行以下命令,将本地视频通过RTSP协议推流给ZLMediaKit。

ffmpeg -re -stream_loop -1 -i "/usr/local/src/test/2018s.mp4" -vcodec h264 -f rtsp rtsp://127.0.0.1/live/test

若想将本地视频通过RTMP协议推流给ZLMediaKit,则需执行以下命令。

ffmpeg -re -stream_loop -1 -i "/usr/local/src/test/2018s.mp4" -vcodec h264 -f flv rtmp://127.0.0.1/live/test

2、打开VLC播放器,依次选择菜单“媒体”→“打开网络串流”,在网络URL框中输入下列任一地址,观看能否正常播放视频画面。

rtsp://124.***.***.***/live/test
rtmp://124.***.***.***/live/test
http://124.***.***.***:8080/live/test/hls.m3u8
http://124.***.***.***:8080/live/test.live.ts
http://124.***.***.***:8080/live/test.live.mp4
http://124.***.***.***:8080/live/test.live.flv

注意需要把上述地址中的“124.***.***.***”替换为流媒体服务器实际的公网地址。

与FFmpeg开发笔记(二十六)Linux环境安装ZLMediaKit实现视频推流相似的内容:

FFmpeg开发笔记(二十六)Linux环境安装ZLMediaKit实现视频推流

​《FFmpeg开发实战:从零基础到短视频上线》一书在第10章介绍了轻量级流媒体服务器MediaMTX,通过该工具可以测试RTSP/RTMP等流媒体协议的推拉流。不过MediaMTX的功能实在是太简单了,无法应用于真实直播的生产环境,真正能用于生产环境的流媒体服务器还要看SRS或者ZLMediaKi

FFmpeg开发笔记(二十八)Linux环境给FFmpeg集成libxvid

​XviD是个开源的视频编解码器,它与DivX一同被纳入MPEG-4规范第二部分的视频标准,但DivX并未开源。早期的MP4视频大多采用XviD或者DivX编码,当时的视频格式被称作MPEG-4。现在常见的H.264后来才增补到MPEG-4规范的第十部分,当然如今使用XviD压缩的视频已经不多了。

FFmpeg开发笔记(二十四)Linux环境给FFmpeg集成AV1的编解码器

​AV1是一种新兴的免费视频编码标准,它由开放媒体联盟(Alliance for Open Media,简称AOM)于2018年制定,融合了Google VP10、Mozilla Daala以及Cisco Thor三款开源项目的成果。据说在实际测试中,AV1标准比H.265(HEVC)的压缩率提升了

FFmpeg开发笔记(二十)Linux环境给FFmpeg集成AVS3解码器

​AVS3是中国AVS工作组制定的第三代音视频编解码技术标准,也是全球首个已推出的面向8K及5G产业应用的视频编码标准。AVS工作组于2019年3月9日完成第三代AVS视频标准(AVS3)基准档次的制订工作,参考软件的测试表明,AVS3基准档次的性能比上一代标准AVS2和HEVC提升了约30%。 l

FFmpeg开发笔记(二十三)使用OBS Studio开启RTMP直播推流

​OBS是一个开源的直播录制软件,英文全称叫做Open Broadcaster Software,广泛用于视频录制、实时直播等领域。OBS不但开源,而且跨平台,兼容Windows、Mac OS、Linux等操作系统。 OBS的官网是https://obsproject.com/,录制软件名叫OBS

FFmpeg开发笔记(十六)Linux交叉编译Android的OpenSSL库

​《FFmpeg开发实战:从零基础到短视频上线》一书的例程主要测试本地的音视频文件,当然为了安全起见,很多网络视频都采用了https地址。FFmpeg若要访问https视频,就必须集成第三方的openssl库,但编译FFmpeg时却默认关闭了openssl。为了让App能够播放采用https的在线视

FFmpeg开发笔记(二十二)FFmpeg中SAR与DAR的显示宽高比

​《FFmpeg开发实战:从零基础到短视频上线》一书提到:通常情况下,在视频流解析之后,从AVCodecContext结构得到的宽高就是视频画面的宽高。然而有的视频文件并非如此,如果按照AVCodecContext设定的宽高展示视频,会发现画面被压扁或者拉长了。比如该书第10章源码playsync.

FFmpeg开发笔记(二十一)Windows环境给FFmpeg集成AVS3解码器

​AVS3是中国AVS工作组制定的第三代音视频编解码技术标准,也是全球首个已推出的面向8K及5G产业应用的视频编码标准。AVS工作组于2019年3月9日完成第三代AVS视频标准(AVS3)基准档次的制订工作,参考软件的测试表明,AVS3基准档次的性能比上一代标准AVS2和HEVC提升了约30%。 l

FFmpeg开发笔记(三十四)Linux环境给FFmpeg集成libsrt和librist

​《FFmpeg开发实战:从零基础到短视频上线》一书的“10.2 FFmpeg推流和拉流”提到直播行业存在RTSP和RTMP两种常见的流媒体协议。除此以外,还有比较两种比较新的流媒体协议,分别是SRT和RIST。 其中SRT全称为Secure Reliable Transport,中文叫做安全可靠传

FFmpeg开发笔记(三十三)分析ZLMediaKit对H.264流的插帧操作

​《FFmpeg开发实战:从零基础到短视频上线》一书的“3.4.3 把原始的H264文件封装为MP4格式”介绍了如何把H.264裸流封装为MP4文件。那么在网络上传输的H.264裸流是怎样被接收端获取视频格式的呢?前文指出H.264流必定以“SPS帧→PPS帧→IDR帧”开头,接下来就来验证是否确实