FFmpeg开发笔记(二十二)FFmpeg中SAR与DAR的显示宽高比

ffmpeg,sar,dar · 浏览次数 : 0

小编点评

**代码修改说明:** * `origin_width` 和 `origin_height` 是原始视频的宽度和高度。 * `aspect_ratio` 是视频的宽高比,格式为 `AVRational`。 * `display_aspect_ratio` 是视频的实际宽度和高度比,格式为 `AVRational`。 * `real_width` 和 `target_width` 是根据 `aspect_ratio` 计算的实际视频宽度和目标视频宽度。 * `real_height` 和 `target_height` 是根据 `aspect_ratio` 计算的实际视频高度和目标视频高度。 **代码功能:** * 根据视频的宽高比,计算出实际的宽度和高度。 * 根据视频的实际宽高比,设置目标视频的宽度和高度。 * 使用 `lpostproc` 和 `lm` 模块进行视频缩放。 * 确保视频的画面尺寸与原始视频的宽高比相符。 **编译命令:** ```bash gcc playsync2.c -o playsync2 -I/usr/local/ffmpeg/include -L/usr/local/ffmpeg/lib -I/usr/local/sdl2/include -L/usr/local/sdl2/lib -lsdl2 -lavformat -lavdevice -lavfilter -lavcodec -lavutil -lswscale -lswresample -lpostproc -lm ``` **运行命令:** ```bash ./playsync2 ../meg.vob ``` **控制台输出日志信息:** ``` Success open input_file ../meg.vob.origin size is 720x576, SAR 64:45, DAR 16:9 Real size is 1024x576, target_width=480, target_height=270 ``` **视频画面截图:** ``` [视频画面截图] ```

正文

《FFmpeg开发实战:从零基础到短视频上线》一书提到:通常情况下,在视频流解析之后,从AVCodecContext结构得到的宽高就是视频画面的宽高。然而有的视频文件并非如此,如果按照AVCodecContext设定的宽高展示视频,会发现画面被压扁或者拉长了。比如该书第10章源码playsync.c在播放meg.vob时的视频画面如下图所示:

可见按照现有方式展示的话,视频画面被拉长了。这是因为视频尺寸有三种宽高概念,说明如下:

1、采样宽高比,指的是摄像头在采集画面时,方格内部的宽度与高度的采样点数量比例。采样宽高比的英文叫做“Sample Aspect Ratio”,简称SAR。
2、像素宽高比,指的是视频画面保存到文件时,宽度和高度各占据多少像素。像素宽高比的英文叫做“Pixel Aspect Ratio”,简称PAR。
3、显示宽高比,指的是视频画面渲染到屏幕时,显示出来的宽度与高度比例。显示宽高比的英文叫做“Display Aspect Ratio”,简称DAR。
采样宽高比对应AVCodecParameters结构的sample_aspect_ratio字段,该字段为分数类型AVRational。
像素宽高比对应AVCodecContext结构的width与height两个字段,比例值等于width/height。
显示宽高比对应最终要显示的画面尺寸,该值需要额外计算。多数时候sample_aspect_ratio的num与den均为1,表示宽高两个方向的采样点比例为1:1,此时像素宽高比等于显示宽高比。
由此可见,当sample_aspect_ratio的num与den均为1时,表示像素点是个正方形,此时AVCodecContext结构的宽高就是视频的宽高,无需另外处理。只有sample_aspect_ratio的num不等于den时,表示像素点是个长方形,才需要另外计算显示宽高比,并根据视频高度计算视频的实际宽度。
已知三个宽高比的转换式子如下:

DAR = PAR x SAR

令DAR=实际宽度/实际高度,则代入具体的字段,可得详细的转换式子如下:

实际宽度   width    sample_aspect_ratio.num
——————— = —————— X —————————————————————————
实际高度   height   sample_aspect_ratio.den

当实际高度为height时,表示保持原画面尺寸,则实际的画面宽度计算式子如下。

             sample_aspect_ratio.num
实际宽度 = width X —————————————————————————
             sample_aspect_ratio.den

假如已经求得DAR值并保存在变量display_aspect_ratio中,那么实际宽度 = 实际高度 * PAR = 实际高度 * display_aspect_ratio.num / display_aspect_ratio.den。

根据上述所列的几个计算式子,编写如下的宽高比以及实际宽度的求解代码如下所示。

int origin_width = video_decode_ctx->width;
int origin_height = video_decode_ctx->height;
AVRational aspect_ratio = src_video->codecpar->sample_aspect_ratio;
AVRational display_aspect_ratio;
av_reduce(&display_aspect_ratio.num, &display_aspect_ratio.den,
          origin_width  * aspect_ratio.num,
          origin_height * aspect_ratio.den,
          1024 * 1024);
av_log(NULL, AV_LOG_INFO, "origin size is %dx%d, SAR %d:%d, DAR %d:%d\n",
       origin_width, origin_height,
       aspect_ratio.num, aspect_ratio.den,
       display_aspect_ratio.num, display_aspect_ratio.den);
int real_width = origin_width;
// 第一种方式:根据SAR的采样宽高比,由原始的宽度算出实际的宽度
if (aspect_ratio.num!=0 && aspect_ratio.den!=0 && aspect_ratio.num!=aspect_ratio.den) {
    real_width = origin_width * aspect_ratio.num / aspect_ratio.den;
}
int target_height = 270;
int target_width = target_height*origin_width/origin_height;
// 第二种方式:根据DAR的显示宽高比,由目标的高度算出目标的宽度
if (aspect_ratio.num!=0 && aspect_ratio.den!=0 && aspect_ratio.num!=aspect_ratio.den) {
    target_width = target_height * display_aspect_ratio.num / display_aspect_ratio.den;
}
av_log(NULL, AV_LOG_INFO, "real size is %dx%d, target_width=%d, target_height=%d\n",
    real_width, origin_height, target_width, target_height);

上述修改后的代码已经附在了《FFmpeg开发实战:从零基础到短视频上线》一书第10章的源码chapter10/playsync2.c中,这个c代码是playsync.c的改进版,能够根据sample_aspect_ratio的宽高比例调整目标视频的画面尺寸。
接着执行下面的编译命令。

gcc playsync2.c -o playsync2 -I/usr/local/ffmpeg/include -L/usr/local/ffmpeg/lib -I/usr/local/sdl2/include -L/usr/local/sdl2/lib -lsdl2 -lavformat -lavdevice -lavfilter -lavcodec -lavutil -lswscale -lswresample -lpostproc -lm

编译完成后执行以下命令启动测试程序,期望播放视频文件meg.vob。

./playsync2 ../meg.vob

程序运行完毕,发现控制台输出以下的日志信息。

Success open input_file ../meg.vob.
origin size is 720x576, SAR 64:45, DAR 16:9
real size is 1024x576, target_width=480, target_height=270
……

同时弹出SDL窗口播放视频画面,如下图所示:

可见画面尺寸符合该视频的实际宽高比例,表示上述代码正确实现了调整视频尺寸的功能。

与FFmpeg开发笔记(二十二)FFmpeg中SAR与DAR的显示宽高比相似的内容:

FFmpeg开发笔记(二十二)FFmpeg中SAR与DAR的显示宽高比

​《FFmpeg开发实战:从零基础到短视频上线》一书提到:通常情况下,在视频流解析之后,从AVCodecContext结构得到的宽高就是视频画面的宽高。然而有的视频文件并非如此,如果按照AVCodecContext设定的宽高展示视频,会发现画面被压扁或者拉长了。比如该书第10章源码playsync.

FFmpeg开发笔记(二十四)Linux环境给FFmpeg集成AV1的编解码器

​AV1是一种新兴的免费视频编码标准,它由开放媒体联盟(Alliance for Open Media,简称AOM)于2018年制定,融合了Google VP10、Mozilla Daala以及Cisco Thor三款开源项目的成果。据说在实际测试中,AV1标准比H.265(HEVC)的压缩率提升了

FFmpeg开发笔记(二十八)Linux环境给FFmpeg集成libxvid

​XviD是个开源的视频编解码器,它与DivX一同被纳入MPEG-4规范第二部分的视频标准,但DivX并未开源。早期的MP4视频大多采用XviD或者DivX编码,当时的视频格式被称作MPEG-4。现在常见的H.264后来才增补到MPEG-4规范的第十部分,当然如今使用XviD压缩的视频已经不多了。

FFmpeg开发笔记(二十六)Linux环境安装ZLMediaKit实现视频推流

​《FFmpeg开发实战:从零基础到短视频上线》一书在第10章介绍了轻量级流媒体服务器MediaMTX,通过该工具可以测试RTSP/RTMP等流媒体协议的推拉流。不过MediaMTX的功能实在是太简单了,无法应用于真实直播的生产环境,真正能用于生产环境的流媒体服务器还要看SRS或者ZLMediaKi

FFmpeg开发笔记(二十一)Windows环境给FFmpeg集成AVS3解码器

​AVS3是中国AVS工作组制定的第三代音视频编解码技术标准,也是全球首个已推出的面向8K及5G产业应用的视频编码标准。AVS工作组于2019年3月9日完成第三代AVS视频标准(AVS3)基准档次的制订工作,参考软件的测试表明,AVS3基准档次的性能比上一代标准AVS2和HEVC提升了约30%。 l

FFmpeg开发笔记(二十)Linux环境给FFmpeg集成AVS3解码器

​AVS3是中国AVS工作组制定的第三代音视频编解码技术标准,也是全球首个已推出的面向8K及5G产业应用的视频编码标准。AVS工作组于2019年3月9日完成第三代AVS视频标准(AVS3)基准档次的制订工作,参考软件的测试表明,AVS3基准档次的性能比上一代标准AVS2和HEVC提升了约30%。 l

FFmpeg开发笔记(二十三)使用OBS Studio开启RTMP直播推流

​OBS是一个开源的直播录制软件,英文全称叫做Open Broadcaster Software,广泛用于视频录制、实时直播等领域。OBS不但开源,而且跨平台,兼容Windows、Mac OS、Linux等操作系统。 OBS的官网是https://obsproject.com/,录制软件名叫OBS

FFmpeg开发笔记(三十二)利用RTMP协议构建电脑与手机的直播Demo

不管是传统互联网还是移动互联网,实时数据传输都是刚需,比如以QQ、微信为代表的即时通信工具,能够实时传输文本和图片。其中一对一的图文通信叫做私聊,多对多的图文通信叫做群聊。 除了常见的图文即时通信,还有实时音视频通信,比如一对一的音频通话、一对一的视频通话等等,此时可采用WebRTC技术,有关Web

FFmpeg开发笔记(三十九)给Visual Studio的C++工程集成FFmpeg

​《FFmpeg开发实战:从零基础到短视频上线》一书的“第11章 FFmpeg的桌面开发”介绍了如何在Windows环境对Qt结合FFmpeg实现桌面程序,那么Windows系统通过Visual Studio开发桌面程序也是很常见的,下面就介绍如何在Visual Studio的C++工程中集成FFm

FFmpeg开发笔记(三十八)APP如何访问SRS推流的RTMP直播地址

​《FFmpeg开发实战:从零基础到短视频上线》一书在第10章介绍了轻量级流媒体服务器MediaMTX,通过该工具可以测试RTSP/RTMP等流媒体协议的推拉流。不过MediaMTX的功能实在是太简单了,无法应用于真实直播的生产环境,真正能用于生产环境的流媒体服务器还要看SRS或者ZLMediaKi