打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
iOS 获取视频的任意一帧

项目要求根据服务器返回的视频和秒数,生成该视频的预览图。

网上一搜关键词 “iOS 视频 帧” 结果都是:iOS如何获取视频的第一帧

但是如果我不想要第一帧,要第s秒的第x帧怎么办?

先贴如何获取第一帧的代码:

123456789101112131415
- (UIImage*) getVideoPreViewImage{    AVURLAsset *asset = [[AVURLAsset alloc] initWithURL:videoPath options:nil];    AVAssetImageGenerator *gen = [[AVAssetImageGenerator alloc] initWithAsset:asset];    [asset release];    gen.appliesPreferredTrackTransform = YES;    CMTime time = CMTimeMakeWithSeconds(0.0, 600);    NSError *error = nil;    CMTime actualTime;    CGImageRef image = [gen copyCGImageAtTime:time actualTime:&actualTime error:&error];    UIImage *img = [[[UIImage alloc] initWithCGImage:image] autorelease];    CGImageRelease(image);    [gen release];    return img;}

这是很不求甚解的做法,有好多问题都没有考虑到。

一般来说,如果我们打算求第x秒 看如上代码,想都不用想的就去把

1
CMTime time = CMTimeMakeWithSeconds(0.0, 600);

改成想要的时间了,但是,跑一下就会发现差强人意。

为什么呢?

我们先要说CMTime 是什么东西。

CMTime

CMTime 是一个用来描述视频时间的结构体。

他有两个构造函数:* CMTimeMake* CMTimeMakeWithSeconds

这两个的区别是* CMTimeMake(a,b) a当前第几帧, b每秒钟多少帧.当前播放时间a/b* CMTimeMakeWithSeconds(a,b) a当前时间,b每秒钟多少帧.

我们引用例子来说明它:

  • CMTimeMakeWithSeconds
1234
Float64 seconds = 5;int32_t preferredTimeScale = 600;CMTime inTime = CMTimeMakeWithSeconds(seconds, preferredTimeScale);CMTimeShow(inTime);

OUTPUT: {3000/600 = 5.000}

代表当前时间为5s,视频一共有3000帧,一秒钟600帧

  • CMTimeMake
1234
int64_t value = 10000;int32_t preferredTimeScale = 600;CMTime inTime = CMTimeMake(value, preferredTimeScale);CMTimeShow(inTime);

OUTPUT: {10000/600 = 16.667}

代表时间为16.667s, 视频一共1000帧,每秒600帧

其实,在我们这里,我们关心的只有最后那个总时间。换句话说,我们把那个(0, 600)换成(x, 600) 是没问题的… = =!

requestedTimeTolerance

那么为什么,效果差了这么多呢?我们可以把

123
CGImageRef image = [gen copyCGImageAtTime:time                                   actualTime:&actualTime                                        error:&error];

返回的 actualTime 输出一下

1
CMTimeShow(actualTime)

就会发现时间差的很远。这是为什么呢。

首先他的 actualTime 使用的 fps * 1000 当每秒的帧率。顺路普及下fps的获取方法

1
float fps = [[[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0] nominalFrameRate];

然后我们来思考为什么要有 requestTime 和 actualTime 呢?开始我对这个api 很困惑: 为什么我request的时间 不等于 actual

后来查了一下文档。

当你想要一个时间点的某一帧的时候,他会在一个范围内找,如果有缓存,或者有在索引内的关键帧,就直接返回,从而优化性能

这个定义范围的API就是 requestedTimeToleranceAfter 和 requestedTimeToleranceBefore

如果我们要精确时间,那么只需要

12
 gen.requestedTimeToleranceAfter = kCMTimeZero; gen.requestedTimeToleranceBefore = kCMTimeZero;
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
iOS 获取视频第一帧图片
IOS批量截取视频截图UIImagemp4IOSVideo
IOS 视频分解图片、图片合成视频
XLVideoPlayer
有买小米12 Pro的钱,为何不买iPhone 13?这个问题该怎么看
GEN-2图片生成视频
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服