使用IOS7原生API进行二维码条形码的扫描

IOS7以前,开发者进行扫码编程时,通常会借助第三方库。经常使用的是ZBarSDK,IOS7以后系统的AVMetadataObject类中,为咱们提供了解析二维码的接口。通过测试,使用原生API扫描和处理的效率很是高,远远高于第三方库。web

1、使用方法示例

官方提供的接口很是简单,代码以下:编程

@interface ViewController ()<AVCaptureMetadataOutputObjectsDelegate>//用于处理采集信息的代理
{
    AVCaptureSession * session;//输入输出的中间桥梁
}
@end
@implementation ViewController
 
- (void)viewDidLoad {
    [super viewDidLoad];
    // Do any additional setup after loading the view, typically from a nib.
    //获取摄像设备
    AVCaptureDevice * device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
    //建立输入流
    AVCaptureDeviceInput * input = [AVCaptureDeviceInput deviceInputWithDevice:device error:nil];
    //建立输出流
    AVCaptureMetadataOutput * output = [[AVCaptureMetadataOutput alloc]init];
    //设置代理 在主线程里刷新
    [output setMetadataObjectsDelegate:self queue:dispatch_get_main_queue()];
     
    //初始化连接对象
    session = [[AVCaptureSession alloc]init];
    //高质量采集率
    [session setSessionPreset:AVCaptureSessionPresetHigh];
     
    [session addInput:input];
    [session addOutput:output];
    //设置扫码支持的编码格式(以下设置条形码和二维码兼容)
    output.metadataObjectTypes=@[AVMetadataObjectTypeQRCode,AVMetadataObjectTypeEAN13Code, AVMetadataObjectTypeEAN8Code, AVMetadataObjectTypeCode128Code];
        
    AVCaptureVideoPreviewLayer * layer = [AVCaptureVideoPreviewLayer layerWithSession:session];
    layer.videoGravity=AVLayerVideoGravityResizeAspectFill;
    layer.frame=self.view.layer.bounds;
    [self.view.layer insertSublayer:layer atIndex:0];
    //开始捕获
    [session startRunning];
}

以后咱们的UI上已经能够看到摄像头捕获的内容,只要实现代理中的方法,就能够完成二维码条形码的扫描:session

-(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputMetadataObjects:(NSArray *)metadataObjects fromConnection:(AVCaptureConnection *)connection{
    if (metadataObjects.count>0) {
        //[session stopRunning];
        AVMetadataMachineReadableCodeObject * metadataObject = [metadataObjects objectAtIndex : 0 ];
        //输出扫描字符串
        NSLog(@"%@",metadataObject.stringValue);
    }
}

 

2、一些优化

经过上面的代码测试,咱们能够发现系统的解析处理效率是至关的高,IOS官方提供的API也确实很是强大,然而,咱们能够作进一步的优化,将效率更加提升:
app

首先AVCaptureMetadataOutput类中有一个这样的属性(在IOS7.0以后可用):ide

@property(nonatomic) CGRect rectOfInterest;测试

这个属性大体意思就是告诉系统它须要注意的区域,大部分APP的扫码UI中都会有一个框,提醒你将条形码放入那个区域,这个属性的做用就在这里,它能够设置一个范围,只处理在这个范围内捕获到的图像的信息。如此一来,可想而知,咱们代码的效率又会获得很大的提升,在使用这个属性的时候。须要几点注意:
优化

一、这个CGRect参数和普通的Rect范围不太同样,它的四个值的范围都是0-1,表示比例。编码

二、通过测试发现,这个参数里面的x对应的偏偏是距离左上角的垂直距离,y对应的是距离左上角的水平距离。atom

三、宽度和高度设置的状况也是相似。spa

三、举个例子若是咱们想让扫描的处理区域是屏幕的下半部分,咱们这样设置

?

1
output.rectOfInterest=CGRectMake(0.5,0,0.5, 1);

具体apple为何要设计成这样,或者是这个参数个人用法那里不对,还须要了解的朋友给个指导。

相关文章
相关标签/搜索