AVAudioFoundation(6):时间和媒体表示

本文转自:AVAudioFoundation(6):时间和媒体表示 | www.samirchen.comhtml

本文主要内容来自 AVFoundation Programming Guideios

基于时间的音视频数据,例如电影文件或视频流,在 AVFoundation 框架中用 AVAsset 来表示。AV Foundation 用于表示时间和媒体的几个底层数据结构,来自 Core Media 框架。数组

资源的表示方式

AVAsset 是 AVFoundation 框架中的核心类。它对基于时间的音视频数据的进行了抽象,例如电影文件或视频流。主要关系以下图所示。在许多状况下,咱们须要使用其子类之一。数据结构

image

Asset 包含了将在一块儿显示或处理的多个轨道,每一个轨道均包含(但不限于)音频、视频、文本、可隐藏字幕和字幕。 Asset 提供了关于资源的完整信息,好比时长、标题,以及渲染时的提示、视频源尺寸等等。 资产还能够包含由 AVMetadataItem 表示的元数据。app

轨道用 AVAssetTrack 的实例表示,以下图所示。在典型的简单状况下,一个轨道表示音频份量,另外一个表示视频份量; 在复杂的组合中,音频和视频可能有多个重叠的轨道。框架

image

轨道具备许多属性,例如其类型(视频或音频),视频和/或音频特征,元数据和时间轴。轨道有一个数组用来描述其格式。该数组包含一组 CMFormatDescription 对象,每一个对象描述轨道对应的媒体样本的格式。包含统一媒体的轨道(好比,都使用相同的设置来编码)将提供一个计数为 1 的数组。ide

轨道自己能够被划分红多段,由 AVAssetTrackSegment 的实例表示。段是从源到资产轨道时间轴的时间映射。函数

时间的表示

AVFoundation 中用来表示时间的数据结构主要来自于 Core Media 框架。测试

用 CMTime 表示时长

CMTime 是一个 C 的数据结构,它表示时间为有理数,包含分子和分母。分子表示时间值,分母表示时间刻度,分子除以分母则表示时间,单位为秒。好比当时间刻度是 10,则表示每一个单位的时间值表示 1/10 秒。最经常使用的时间刻度是 600,由于在场景的场景中,咱们用 24 fps 的电影,30 fps 的 NTSC,25 fps 的 PAL。使用 600 的时间刻度,能够准确地表示这些系统中的任何数量的帧。ui

除了简单的时间值以外,CMTime 结构能够表示非数值的值:正无穷大,负无穷大和无定义。 它也能够指示时间是否在某一点被舍入,而且它能保持一个纪元数字。

使用 CMTime

下面是一些使用 CMTime 示例:

CMTime time1 = CMTimeMake(200, 2); // 200 half-seconds
CMTime time2 = CMTimeMake(400, 4); // 400 quarter-seconds
 
// time1 and time2 both represent 100 seconds, but using different timescales.
if (CMTimeCompare(time1, time2) == 0) {
    NSLog(@"time1 and time2 are the same");
}
 
Float64 float64Seconds = 200.0 / 3;
CMTime time3 = CMTimeMakeWithSeconds(float64Seconds , 3); // 66.66... third-seconds
time3 = CMTimeMultiply(time3, 3);
// time3 now represents 200 seconds; next subtract time1 (100 seconds).
time3 = CMTimeSubtract(time3, time1);
CMTimeShow(time3);
 
if (CMTIME_COMPARE_INLINE(time2, ==, time3)) {
    NSLog(@"time2 and time3 are the same");
}

CMTime 的特殊值

Core Media 提供了一些关于 CMTime 的特殊值,好比:kCMTimeZerokCMTimeInvalidkCMTimePositiveInfinitykCMTimeNegativeInfinity。要检查一个表示非数值的 CMTime 是不是合法的,能够用 CMTIME_IS_INVALIDCMTIME_IS_POSITIVE_INFINITYCMTIME_IS_INDEFINITE 这些宏。

CMTime myTime = <#Get a CMTime#>;
if (CMTIME_IS_INVALID(myTime)) {
    // Perhaps treat this as an error; display a suitable alert to the user.
}

不要去拿一个 CMTimekCMTimeInvalid 作比较。

用对象的方式使用 CMTime

若是要使用 Core Foundation 中的一些容器来存储 CMTime,咱们须要进行 CMTimeCFDictionary 之间的转换。这时咱们须要用到 CMTimeCopyAsDictionaryCMTimeMakeFromDictionary 这些方法。咱们还能用 CMTimeCopyDescription 来输出描述 CMTime 的字符串。

纪元

一般 CMTime 中的 epoch 设置为 0,不过咱们也能够设置它为其余值来区分不相关的时间轴。好比,咱们能够在循环遍历中递增 epoch 的值,每个 0 到 N 的循序递增一下 epoch 来区分不一样的轮回。

用 CMTimeRange 来表示时间范围

CMTimeRange 表示的时间范围包含两个字段:开始时间(start)和时长(duration),这两个字段都是 CMTime 类型。须要注意的是一个 CMTimeRange 不含开始时间加上时长算出来的那个时间点,即 [start, start + duration)

咱们能够用 CMTimeRangeMakeCMTimeRangeFromTimeToTime 来建立 CMTimeRange。可是这里有一些限制:

  • CMTimeRange 不能跨越不一样的纪元。
  • CMTime 中的 epoch 字段可能不为 0,可是咱们只能对 start 字段具备相同 epochCMTimeRange 执行相关操做(好比 CMTimeRangeGetUnion)。
  • 表示 durationCMTime 结构中的 epoch 应始终为 0,value 必须为非负数。

使用 CMTimeRange

Core Media 提供了一系列操做 CMTimeRange 的方法,好比 CMTimeRangeContainsTimeCMTimeRangeEqualCMTimeRangeContainsTimeRangeCMTimeRangeGetUnion.

下面的代码返回值永远为 false

CMTimeRangeContainsTime(range, CMTimeRangeGetEnd(range))

CMTimeRange 的特殊值

Core Media 提供了 kCMTimeRangeZerokCMTimeRangeInvalid 表示零长度 range 和错误 range。在不少状况下,CMTimeRange 结构可能无效,或者是零或不定式(若是其中一个 CMTime 字段是不肯定的)。若是要测试 CMTimeRange 结构是否有效、零或不肯定,可使用一个适当的宏:CMTIMERANGE_IS_VALIDCMTIMERANGE_IS_INVALIDCMTIMERANGE_IS_EMPTYCMTIMERANGE_IS_EMPTY

CMTimeRange myTimeRange = <#Get a CMTimeRange#>;
if (CMTIMERANGE_IS_EMPTY(myTimeRange)) {
    // The time range is zero.
}

不要拿任何 CMTimeRangekCMTimeRangeInvalid 作比较。

用对象的方式使用 CMTimeRange

若是要在 Core Foundation 提供的容器中使用 CMTimeRange 结构,则能够分别使用 CMTimeRangeCopyAsDictionaryCMTimeRangeMakeFromDictionaryCMTimeRange 结构转换为 CFDictionary 类型。 还可使用 CMTimeRangeCopyDescription 函数获取 CMTimeRange 结构的字符串表示形式。

媒体的表示

视频数据及其关联的元数据在 AVFoundation 中由 Core Media 框架中的对象表示。 Core Media 使用 CMSampleBuffer 表示视频数据。CMSampleBuffer 是一种 Core Foundation 风格的类型。CMSampleBuffer 的一个实例在对应的 Core Video pixel buffer 中包含了视频帧的数据(参见 CVPixelBufferRef)。 咱们可使用 CMSampleBufferGetImageBuffer 从样本缓冲区访问 pixel buffer:

CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(<#A CMSampleBuffer#>);

从 pixel buffer 中,咱们能够访问实际的视频数据。

除了视频数据以外,您还能够检索视频帧的其余方面的数据:

  • 时间信息。咱们能够分别使用 CMSampleBufferGetPresentationTimeStampCMSampleBufferGetDecodeTimeStamp 得到原始演示时间和解码时间的准确时间戳。
  • 格式信息。格式信息封装在 CMFormatDescription 对象中。从格式描述中,能够分别使用 CMVideoFormatDescriptionGetCodecTypeCMVideoFormatDescriptionGetDimensions 获取像素类型和视频尺寸。
  • 元数据。元数据做为附件存储在字典中。您使用 CMGetAttachment 检索字典。以下面代码所示:
CMSampleBufferRef sampleBuffer = <#Get a sample buffer#>;
CFDictionaryRef metadataDictionary = CMGetAttachment(sampleBuffer, CFSTR("MetadataDictionary", NULL);
if (metadataDictionary) {
    // Do something with the metadata.
}

将 CMSampleBuffer 转换为 UIImage

如下代码显示如何将 CMSampleBuffer 转换为 UIImage 对象。 使用前,咱们要仔细考虑对应的需求。 执行转换是比较昂贵的操做。例如,从每隔一秒钟拍摄的视频数据帧建立静止图像是合适的,但不该该使用它来实时操纵来自录制设备的每一帧视频。

// Create a UIImage from sample buffer data.
- (UIImage *)imageFromSampleBuffer:(CMSampleBufferRef)sampleBuffer {
    // Get a CMSampleBuffer's Core Video image buffer for the media data
    CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
    // Lock the base address of the pixel buffer
    CVPixelBufferLockBaseAddress(imageBuffer, 0);
 
    // Get the number of bytes per row for the pixel buffer
    void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer);
 
    // Get the number of bytes per row for the pixel buffer
    size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
    // Get the pixel buffer width and height
    size_t width = CVPixelBufferGetWidth(imageBuffer);
    size_t height = CVPixelBufferGetHeight(imageBuffer);
 
    // Create a device-dependent RGB color space
    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
 
    // Create a bitmap graphics context with the sample buffer data
    CGContextRef context = CGBitmapContextCreate(baseAddress, width, height, 8,
      bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
    // Create a Quartz image from the pixel data in the bitmap graphics context
    CGImageRef quartzImage = CGBitmapContextCreateImage(context);
    // Unlock the pixel buffer
    CVPixelBufferUnlockBaseAddress(imageBuffer,0);
 
    // Free up the context and color space
    CGContextRelease(context);
    CGColorSpaceRelease(colorSpace);
 
    // Create an image object from the Quartz image
    UIImage *image = [UIImage imageWithCGImage:quartzImage];
 
    // Release the Quartz image
    CGImageRelease(quartzImage);
 
    return (image);
}
相关文章
相关标签/搜索