前言

本文总结了iOS中最常见的视频播放方法,不同的方法都各具特点,我希望能够总结它们的不同,方便在开发中选择合适的技术方案。

Apple为我们提供了多种方法来实现视频播放,包括MPMovieP Controller,MPMovieP ViewController,AVP ,AVP ViewController等。而值得注意的是,上述的MPMovieP Controller与MPMovieP ViewController在iOS9.0之后被弃用。虽说如此,这还是将它们的用法总结了一下,下面我们简单来了解一下四种播放方式的区别:

iOS播放视频.png

温馨提示:代码更直观,首先附上本文Demo (本地下载

一、MPMovieP Controller

1.播放视频

MPMoviewP Controller继承于NS ,使用它播放视频需要将其自带的视频View添加到视图控制器的View上才能显示视频,使用步骤如下:

第一步:引用MediaP 框架,声明视图控制器属性P Controller
#import <mediap  mediap .h>

@property(nonatomic,strong)MPMovieP Controller *p Controller;
//第二步:获取视频路径,创建播放器
//本地视频路径
NSString* localFilePath=[[NSBundle mainBundle]pathForResource:@"不能说的秘密" ofType:@"mp4"];
NSURL *localVideoUrl = [NSURL fileURLWithPath:localFilePath];
//网络视频路径
NSString *webVideoPath = @"http://api.junqingguanchashi.net/yunpan/bd/c.php?vid=/junqing/1115.mp4";
NSURL *webVideoUrl = [NSURL URLWithString:webVideoPath];
self.p Controller =[[MPMovieP Controller alloc]initWithContentURL:webVideoUrl];
//第三步:设置 将播放器View添加到视图控制器View上
self.p Controller.view.  = CGRectMake(0, 10, kDeviceWidth, 300);
[self.view addSubview: self.p Controller.view];
//第四步:设置播放器属性
//设置控制面板风格:无,嵌入,全屏,默认
self.p Controller.controlStyle = MPMovieControlStyleDefault;
//设置是否自动播放(默认为YES)
self.p Controller.shouldAutoplay = NO;
//设置播放器显示模式,类似于图片的处理,设置Fill有可能造成部分区域被裁剪
self.p Controller.scalingMode = MPMovieScalingModeAspectFit;
//设置重复模式
self.p Controller.repeatMode = MPMovieRepeatModeOne;
//第五步:播放视频
//播放前的准备,会中断当前正在活跃的音频会话
[ self.p Controller prepareToPlay];
//播放视频,设置了自动播放之后可以不调用此方法
//[ self.p Controller play];
//第六步:在退出界面的时候,关闭播放器,移除通知
- (void)dealloc{
 //当前视图控制器pop之后并不会关闭播放,需要手动关闭
 [self.p Controller stop];
 self.p Controller = nil;
 //移除播放器相关的通知
 [[NSNotificationCenter defaultCenter] removeObserver:self];
}

2.视频播放相关的通知

MPMovieP Controller有关视频播放的很多状态控制都是通过通知完成的,尤其是播放在线视频的时候,我们不仅监控视频加载是否成功,也会监控是视频缓存进度等。这里演示一些常用的通知如下:

//关于通知的使用(还有很多通知可以监听,可查看SDK)
NSNotificationCenter *notificaionCenter = [NSNotificationCenter defaultCenter];
//监听播放器状态的变化
[notificaionCenter addObserver:self
 selector:@selector(p StateChanged:)
 name:MPMovieP PlaybackStateDidChangeNotification
  :nil];
//监听播放完成
[notificaionCenter addObserver:self
 selector:@selector(p Finished) name:MPMovieP PlaybackDidFinishNotification
  :nil];
//监听切换到全屏
[notificaionCenter addObserver:self
 selector:@selector(palyerChangeFullScreen) name:MPMovieP DidEnterFullscreenNotification
  :nil];
//监听截屏操作完成
[notificaionCenter addObserver:self
 selector:@selector(p CaptureFinished:) name:MPMovieP ThumbnailImageRequestDidFinishNotification
  :nil];
#pragma mark - 监听通知的响应方法
//播放状态变化,注意播放完成时的状态是暂停
- (void)p StateChanged:(NSNotification *)notificaion{
 switch (self.p Controller.playbackState) {
 case MPMoviePlaybackStateStopped:{
 NSLog(@"播放停止");
 break;
 }
 case MPMoviePlaybackStatePlaying:{
 NSLog(@"播放器正在播放");
 break;
 }
 case MPMoviePlaybackStatePaused:{
 NSLog(@"播放器暂停");
 break;
 }
 case MPMoviePlaybackStateInterrupted:{
 NSLog(@"播放器中断");
 break;
 }
 case MPMoviePlaybackStateSeekingForward:{
 NSLog(@"播放器快进");
 break;
 }
 case MPMoviePlaybackStateSeekingBackward:{
 NSLog(@"播放器快退");
 break;
 }
 default:
 break;
 }
}

//视频播放结束
- (void)p Finished{
 NSLog(@"p Finished:播放结束");
}

//播放器切换到了全屏
- (void)palyerChangeFullScreen{
 NSLog(@"palyerChangeFullScreen:播放器进入全屏");
}

//播放器截屏结束
- (void)p CaptureFinished:(NSNotification *)notification{
 //获取并显示截图
 UIImage *image=notification.userInfo[MPMovieP ThumbnailImageKey];
 self.captureImgView.image = image;
}

3.实现截屏

//添加一个按钮,点击开始截屏
_captureBtn = [[UIButton alloc] initWith :CGRectMake(30, CGRectGetMaxY(self.p Controller.view. ) + 30, kDeviceWidth - 30 * 2, 50)];
_captureBtn.backgroundColor = [UIColor purpleColor];
[_captureBtn set :@"截图当前屏幕" forState: UIControlStateNormal];
[_captureBtn addTarget:self action:@selector(captureCurrentScreenImg) forControlEvents:UIControlEventTouchUpInside];
[self.view addSubview:_captureBtn];
//添加一个ImgView 显示截屏后的图片
_captureImgView = [[UIImageView alloc] initWith :CGRectMake((kDeviceWidth - 150)/2, CGRectGetMaxY(_captureBtn. ) + 20, 150, 150)];
 _captureImgView.contentMode = UIViewContentModeScaleAspectFit;
_captureImgView.backgroundColor = [UIColor grayColor];
[self.view addSubview:_captureImgView];
//截取当前屏幕
- (void)captureCurrentScreenImg{
 [self.p Controller requestThumbnailImagesAtTimes:@[@(self.p Controller.currentPlaybackTime)] timeOption:MPMovieTimeOptionNearestKey ];
}
//监听通知:播放器截屏结束,得到图片并显示截图
- (void)p CaptureFinished:(NSNotification *)notification{
 UIImage *image=notification.userInfo[MPMovieP ThumbnailImageKey];
 self.captureImgView.image = image;
}

二、MPMovieP ViewController

MPMoviceP ViewControlle只能全屏幕播放视频,它是一个包含了MPMovieP Controller类型属性的特殊视图控制器,因此它是通过模态视图弹出的方式显示视频的。理解了这个,我们就可以知道在使用MPMoviceP ViewController的时候我们可以通过它的MPMovieP Controller属性设置很多播放器的属性了,具体用法和MPMovieP Controller相同,就不过多的解释了,播放视频的代码示例如下;

//第一步:获取视频路径
//本地视频
NSString* localFilePath=[[NSBundle mainBundle]pathForResource:@"不能说的秘密" ofType:@"mp4"];
NSURL *localVideoUrl = [NSURL fileURLWithPath:localFilePath];
//在线视频
//NSString *webVideoPath = @"http://api.junqingguanchashi.net/yunpan/bd/c.php?vid=/junqing/1115.mp4";
//NSURL *webVideoUrl = [NSURL URLWithString:webVideoPath];

//第二步:创建视频播放器
MPMovieP ViewController *p ViewController = [[MPMovieP ViewController alloc] initWithContentURL:localVideoUrl];

//第三步:设置播放器属性
//通过movieP 属性设置播放器属性(与MPMovieP Controller类似)
p ViewController.movieP .scalingMode = MPMovieScalingModeFill;

//第四步:跳转视频播放界面
[self presentViewController:p ViewController animated:YES completion:nil];

三、AVP

AVP 相比上述两种方式,播放视频功能更加强大,使用也十分灵活,因为它更加接近底层。但是AVP 本身是不能直接显示视频的,必须创建一个播放层AVP 并将其添加到其他的视图 上才能显示。

1. 使用AVP 需要了解的常用类

  • AVAsset:一个用于获取多媒体信息的抽象类,但不能直接使用
  • AVURLAsset:AVAsset的子类,可以根据一个URL路径创建一个包含媒体信息的AVURLAsset对象
  • AVP Item:一个媒体资源管理对象,用于管理视频的基本信息和状态,一个AVP Item对应一个视频资源
  • AVP :负责视频播放、暂停、时间控制等操作
  • AVP :负责显示视频的图层,如果不设置此属性,视频就只有声音没有图像

2. AVP 的使用步骤

//第一步:引用AVFoundation框架,添加播放器属性
#import <AVFoundation/AVFoundation.h>
@property (nonatomic,strong)AVP  *p ;//播放器对象
@property (nonatomic,strong)AVP Item *currentP Item;
//第二步:获取播放地址URL
//本地视频路径
NSString* localFilePath=[[NSBundle mainBundle]pathForResource:@"不能说的秘密" ofType:@"mp4"];
NSURL *localVideoUrl = [NSURL fileURLWithPath:localFilePath];
//网络视频路径
NSString *webVideoPath = @"http://api.junqingguanchashi.net/yunpan/bd/c.php?vid=/junqing/1129.mp4";
NSURL *webVideoUrl = [NSURL URLWithString:webVideoPath];
//第三步:创建播放器(四种方法)
//如果使用URL创建的方式会默认为AVP 创建一个AVP Item
//self.p  = [AVP  p WithURL:localVideoUrl];
//self.p  = [[AVP  alloc] initWithURL:localVideoUrl];
//self.p  = [AVP  p WithP Item:p Item];
AVP Item *p Item = [[AVP Item alloc] initWithURL:webVideoUrl];
self.currentP Item = p Item;
self.p  = [[AVP  alloc] initWithP Item:p Item];
//第四步:创建显示视频的AVP  ,设置视频显示属性,并添加视频图层
//contentView是一个普通View,用于放置视频视图
/*
 AV VideoGravityResizeAspectFill等比例铺满,宽或高有可能出屏幕
 AV VideoGravityResizeAspect 等比例 默认
 AV VideoGravityResize 完全适应宽高
*/
AVP   *av  = [AVP   p  WithP :self.p ];
av .videoGravity = AV VideoGravityResizeAspect;
av .  = _containerView.bounds;
[_containerView.  addSub :av ];
//第六步:执行play方法,开始播放
//本地视频可以直接播放
//网络视频需要监测AVP Item的status属性为AVP StatusReadyToPlay时方法才会生效
[self.p  play];

3. 添加属性观察

一个AVP Item对象对应着一个视频,我们需要通过AVP Item来获取视频属性。但是AVP Item必须是在视频资源加载到可以播放的时候才能使用,这是受限于网络的原因。解决这一问题,我们需要使用KVO监测AVP Item的status属性,当其为AVP ItemStatusReadyToPlay的时候我们才能获取视频相关属性。相关的代码示例如下:

//1.注册观察者,监测播放器属性
//观察Status属性,可以在加载成功之后得到视频的长度
[self.p .currentItem addObserver:self forKeyPath:@"status" options:NSKeyValueObservingOptionNew context:nil];
//观察loadedTimeRanges,可以获取缓存进度,实现缓冲进度条
[self.p .currentItem addObserver:self forKeyPath:@"loadedTimeRanges" options:NSKeyValueObservingOptionNew context:nil];
//2.添加属性观察
- (void)observeValueForKeyPath:(NSString *)keyPath
  of :(id) 
  change:(NSDictionary *)change
  context:(void *)context {
 AVP Item *p Item = (AVP Item *) ;
 if ([keyPath isEqualToString:@"status"]) {
 //获取p Item的status属性最新的状态
 AVP Status status = [[change  ForKey:@"new"] intValue];
 switch (status) {
 case AVP StatusReadyToPlay:{
 //获取视频长度
 CMTime duration = p Item.duration; 
 //更新显示:视频总时长(自定义方法显示时间的格式)
 self.totalNeedPlayTimeLabel.text = [self formatTimeWithTimeInterVal:CMTimeGetSeconds(duration)];
 //开启滑块的滑动功能
 self.sliderView.enabled = YES;
 //关闭加载Loading提示
 [self showaAtivityInDicatorView:NO];
 //开始播放视频
 [self.p  play];
 break;
 }
 case AVP StatusFailed:{//视频加载失败,点击重新加载
 [self showaAtivityInDicatorView:NO];//关闭Loading视图
 self.p InfoButton.hidden = NO; //显示错误提示按钮,点击后重新加载视频
 [self.p InfoButton set :@"资源加载失败,点击继续尝试加载" forState: UIControlStateNormal];
 break;
 }
 case AVP StatusUnknown:{
 NSLog(@"加载遇到未知问题:AVP StatusUnknown");
 break;
 }
 default:
 break;
 }
 } else if ([keyPath isEqualToString:@"loadedTimeRanges"]) {
 //获取视频缓冲进度数组,这些缓冲的数组可能不是连续的
 NSArray *loadedTimeRanges = p Item.loadedTimeRanges;
 //获取最新的缓冲区间
 CMTimeRange timeRange = [loadedTimeRanges.first  CMTimeRangeValue];
 //缓冲区间的开始的时间
 NSTimeInterval loadStartSeconds = CMTimeGetSeconds(timeRange.start);
 //缓冲区间的时长
 NSTimeInterval loadDurationSeconds = CMTimeGetSeconds(timeRange.duration);
 //当前视频缓冲时间总长度
 NSTimeInterval currentLoadTotalTime = loadStartSeconds + loadDurationSeconds;
 //NSLog(@"开始缓冲:%f,缓冲时长:%f,总时间:%f", loadStartSeconds, loadDurationSeconds, currentLoadTotalTime);
 //更新显示:当前缓冲总时长
 _currentLoadTimeLabel.text = [self formatTimeWithTimeInterVal:currentLoadTotalTime];
 //更新显示:视频的总时长
 _totalNeedLoadTimeLabel.text = [self formatTimeWithTimeInterVal:CMTimeGetSeconds(self.p .currentItem.duration)];
 //更新显示:缓冲进度条的值
 _progressView.progress = currentLoadTotalTime/CMTimeGetSeconds(self.p .currentItem.duration);
 }
}
//转换时间格式的方法
- (NSString *)formatTimeWithTimeInterVal:(NSTimeInterval)timeInterVal{
 int minute = 0, hour = 0, secend = timeInterVal;
 minute = (secend % 3600)/60;
 hour = secend / 3600;
 secend = secend % 60;
 return [NSString stringWithFormat:@"%02d:%02d:%02d", hour, minute, secend];
}

4. 获取当前播放时间与总时间

在此之前我们需要首先了解一个数据类型,也就是上述操作中的CMTime, 在AVP 的使用中我们会经常用到它,其实CMTime是一个结构体如下:

 typedef struct{
 CMTimeValue value; // 帧数
 CMTimeScale timescale; // 帧率(影片每秒有几帧)
 CMTimeFlags flags;
 CMTimeEpoch epoch;
 } CMTi

在上面的操作中我们看到AVP Item的Duration属性就是一个CMTime类型的数据。所以获取视频的总时长(秒)需要duration.value/duration.timeScale。当然系统也为我们提供了CMTimeGetSeconds函数更加方便计算:

总时长: duration.value == CMTimeGetSeconds(duration) 。

在快进视频到某一个位置的时候我们也需要创建CMTime作为参数,那么CMTime的创建方法有两种:

//方法1:
CMTimeMakeWithSeconds(Flout64 seconds, int32_t scale)
//方法2:
CMTimeMake(int64_t value, int32_t scale)
//注:两者的区别在于方法一的第一个参数可以是float

至于获取视频的总时间在上述代码中已有体现,是在检测播放状态变为AVP StatusReadyToPlay的时候获取的

//视频总时长,在AVP Item状态为AVP StatusReadyToPlay时获取
CMTime duration = self.p .currentItem.duration;
CGFloat totalTime = CMTimeGetSeconds(duration);
//当前AVP 的播放时长
CMTime cmTime = self.p .currentTime;
CGFloat currentTime = CMTimeGetSeconds(cmTime);

5. 播放进度与状态的刷新

实时更新当前播放时间,这时候我们不必使用定时器,因为AVP 已经提供了方法:
addPeriodicTimeObserverForInterval: queue: usingBlock。当播放进度改变的时候方法中的回调会被执行。我们可以在这里做刷新时间的操作,代码示例如下:

__weak __typeof(self) weakSelf = self;
[self.p  addPeriodicTimeObserverForInterval:CMTimeMake(1, 1) queue:dispatch_get_main_queue() usingBlock:^(CMTime time) {
 //当前播放的时间
 NSTimeInterval currentTime = CMTimeGetSeconds(time);
 //视频的总时间
 NSTimeInterval totalTime = CMTimeGetSeconds(weakSelf.p .currentItem.duration);
 //设置滑块的当前进度
 weakSelf.sliderView.value = currentTime/totalTime;
 //设置显示的时间:以00:00:00的格式
 weakSelf.currentTimeLabel.text = [weakSelf formatTimeWithTimeInterVal:currentTime];
 }];

6. 滑块拖拽修改视频播放进度

//UISlider的响应方法:拖动滑块,改变播放进度
- (IBAction)sliderViewChange:(id)sender {
 if(self.p .status == AVP StatusReadyToPlay){
 NSTimeInterval playTime = self.sliderView.value * CMTimeGetSeconds(self.p .currentItem.duration);
 CMTime seekTime = CMTimeMake(playTime, 1);
 [self.p  seekToTime:seekTime completionHandler:^(BOOL finished) {
 }];
 }
}

四、AVP ViewController

AVP ViewController是iOS8新增视频框架AVKit中的一个播放器类。由于iOS9弃用前两种播放器类的原因,AVP ViewController也将变得更加常用。AVP ViewController适合开发播放界面要求不是很高的应用。其相比AVP 的使用更加方便,但是原理上还是AVP ViewController包含了一个AVP 对象。
AVP ViewController有两种播放视频的方式:

第一种:直接弹出模态视图控制器播放

//步骤1:获取视频路径
NSString *webVideoPath = @"http://api.junqingguanchashi.net/yunpan/bd/c.php?vid=/junqing/1213.mp4";
NSURL *webVideoUrl = [NSURL URLWithString:webVideoPath];
//步骤2:创建AVP 
AVP  *avP  = [[AVP  alloc] initWithURL:webVideoUrl];
//步骤3:使用AVP 创建AVP ViewController,并跳转播放界面
AVP ViewController *avP VC =[[AVP ViewController alloc] init];
avP VC.p  = avP ;
[self presentViewController:avP VC animated:YES completion:nil];

第二种:添加AVP ViewController的View到父视图上播放。

使用这种方式播放的优点在于可以指定播放界面的原始尺寸大小,但是值得注意的是AVP ViewController必须被当前视图控制器所持有,以防止被当做局部变量被释放。为了满足这一条件,我们可以将AVP ViewController作为属性,也可以使用addChildViewController方法将其作为当前视图控制器的子视图控制器,示例代码如下:

//步骤1:获取视频路径
NSString *webVideoPath = @"http://api.junqingguanchashi.net/yunpan/bd/c.php?vid=/junqing/1213.mp4";
NSURL *webVideoUrl = [NSURL URLWithString:webVideoPath];
//步骤2:创建AVP 
AVP  *avP  = [[AVP  alloc] initWithURL:webVideoUrl];
//步骤3:使用AVP 创建AVP ViewController,并跳转播放界面
AVP ViewController *avP VC =[[AVP ViewController alloc] init];
avP VC.p  = avP ;
//步骤4:设置播放器视图大小
avP VC.view.  = CGRectMake(25, 0, 320, 300);
//特别注意:AVP ViewController不能作为局部变量被释放,否则无法播放成功
//解决1.AVP ViewController作为属性
//解决2:使用addChildViewController,AVP ViewController作为子视图控制器
[self addChildViewController:avP VC];
[self.view addSubview:avP VC.view];

最后总结:

以上就是iOS视频播放的基本方法,但这里也仅限一些基础的播放需求。若要实现更为复杂的播放功能,仍然有很多东西需要我们继续深入研究,加油!

好了,以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对脚本之家的支持。

收藏 打印