ARKit主要由三部分组成:session
跟踪(Tracking)框架
跟踪是ARKit的核心组件之一,其提供了设备在物理世界中的位置与方向信息,并对物体进行跟踪,如人脸。学习
2.场景理解(Scene Understanding)测试
场景理解经过学习更多关于环境的属性,以对水平平面进行检测,如地面或桌面;iOS 11.3开始还支持检测垂直平面。这些在场景中平面可用于放置虚拟物体。此外,场景理解还会了解当前环境的光照状况,以提供光照信息用于在虚拟场景中反映真实环境,避免过亮或过暗。atom
3.渲染(Rendering)线程
经过ARKit能够很容易地集成你所选的渲染引擎。ARKit可经过SceneKit和SpriteKit渲染。Xcode中还提供了Metal模板,方便快速地开始你的加强现实体验(augmented reality experience)项目。此外,Unity和Unreal也已经集成ARKit完整的功能集到他们主流的游戏引擎中,所以你能够经过这些引擎开始使用ARKit。3d
主要新特性以下:code
若是你有更好的建议或者对这篇文章有不满的地方, 请联系我, 我会进行修改, 联系我时,请备注ARKit新技术(技术交流群:656315826)视频
话很少说先上干货对象
ARKit是2017年6月6日,苹果发布iOS11系统所新增框架,它可以帮助咱们以最简单快捷的方式实现AR技术功能。加强现实技术(Augmented Reality,简称 AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。
ARKit框架提供了两种AR技术,一种是基于3D场景(SceneKit)实现的加强现实,一种是基于2D场景(SpriktKit)实现的加强现实
误区解读
ARKit虽然是iOS11新出的框架,但并非全部的iOS11系统均可以使用,而是必需要是处理器A9及以上才可以使用,苹果从iPhone6s开始使用A9处理器,也就是iPhone6及之前的机型没法使用ARKit
1.Xcode版本:Xcode9及以上
2.iOS系统:iOS11及以上
3.iOS设备:处理器A9及以上(6S机型及以上)
4.MacOS系统:10.12.4及以上(安装Xcode9对Mac系统版本有要求)
ARKit物体跟随相机移动流程介绍
1.搭建环境 2.搭建ARKit工做环境 3.开启AR扫描 4.点击屏幕添加一个3D虚拟物体
搭建环境
1.ARSCNView是UIView的子类的子类,因此从理论上来讲,咱们应用框架UIKit是能够加载AR场景的
2.给界面添加一个按钮开启AR之旅,建立一个ARSCNViewController:继承于UIViewController,点击按钮跳转到自定义ARSCNViewController
搭建ARKit工做环境
一个完整的ARKit工做环境必需要搭建三个对象:ARSCNView(一旦建立,系统会帮咱们建立一个场景Scene和相机),ARSession(开启AR和关闭AR都是靠它),ARSessionConfiguration(少了会话追踪配置,AR会话是没法独立工做的)
#import "ARSCNViewViewController.h" //3D游戏框架 #import <SceneKit/SceneKit.h> //ARKit框架 #import <ARKit/ARKit.h> @interface ARSCNViewViewController () //AR视图:展现3D界面 @property(nonatomic,strong)ARSCNView *arSCNView; //AR会话,负责管理相机追踪配置及3D相机坐标 @property(nonatomic,strong)ARSession *arSession; //会话追踪配置:负责追踪相机的运动 @property(nonatomic,strong)ARSessionConfiguration *arSessionConfiguration; //飞机3D模型(本小节加载多个模型) @property(nonatomic,strong)SCNNode *planeNode; @end
pragma mark -搭建ARKit环境
#pragma mark -搭建ARKit环境 //懒加载会话追踪配置 - (ARSessionConfiguration *)arSessionConfiguration { if (_arSessionConfiguration != nil) { return _arSessionConfiguration; } //1.建立世界追踪会话配置(使用ARWorldTrackingSessionConfiguration效果更加好),须要A9芯片支持 ARWorldTrackingSessionConfiguration *configuration = [[ARWorldTrackingSessionConfiguration alloc] init]; //2.设置追踪方向(追踪平面,后面会用到) configuration.planeDetection = ARPlaneDetectionHorizontal; _arSessionConfiguration = configuration; //3.自适应灯光(相机从暗到强光快速过渡效果会平缓一些) _arSessionConfiguration.lightEstimationEnabled = YES; return _arSessionConfiguration; } //懒加载拍摄会话 - (ARSession *)arSession { if(_arSession != nil) { return _arSession; } //1.建立会话 _arSession = [[ARSession alloc] init]; //2返回会话 return _arSession; } //建立AR视图 - (ARSCNView *)arSCNView { if (_arSCNView != nil) { return _arSCNView; } //1.建立AR视图 _arSCNView = [[ARSCNView alloc] initWithFrame:self.view.bounds]; //2.设置视图会话 _arSCNView.session = self.arSession; //3.自动刷新灯光(3D游戏用到,此处可忽略) _arSCNView.automaticallyUpdatesLighting = YES; return _arSCNView; }
开启AR扫描
咱们只须要先将AR视图添加到当前UIView中,而后开启AR会话便可开始咱们的AR之旅
这里须要特别注意的是,最好将开启ARSession的代码放入viewDidAppear而不是viewDidLoad中,这样能够避免线程延迟的问题。
@implementation ARSCNViewViewController - (void)viewDidLoad { [super viewDidLoad]; // Do any additional setup after loading the view. } - (void)viewDidAppear:(BOOL)animated { [super viewDidAppear:animated]; //1.将AR视图添加到当前视图 [self.view addSubview:self.arSCNView]; //2.开启AR会话(此时相机开始工做) [self.arSession runWithConfiguration:self.arSessionConfiguration]; }
点击屏幕添加一个3D虚拟物体(飞机)
默认状况下,节点SCNNode的x/y/z位置是(0,0,0),也就是摄像头所在的位置,每个ARSession在启动时,摄像头的位置就是3D世界的原点,并且这个原点再也不随着摄像头的移动而改变,是第一次就永久固定的
点击屏幕添加飞机
(void)touchesBegan:(NSSet<UITouch *> )touches withEvent:(UIEvent )event { //1.使用场景加载scn文件(scn格式文件是一个基于3D建模的文件,使用3DMax软件能够建立,这里系统有一个默认的3D飞机)--------在右侧我添加了许多3D模型,只须要替换文件名便可 SCNScene scene = [SCNScene sceneNamed:@"Models.scnassets/ship.scn"]; //2.获取飞机节点(一个场景会有多个节点,此处咱们只写,飞机节点则默认是场景子节点的第一个) //全部的场景有且只有一个根节点,其余全部节点都是根节点的子节点 SCNNode shipNode = scene.rootNode.childNodes[0]; //3.将飞机节点添加到当前屏幕中 [self.arSCNView.scene.rootNode addChildNode:shipNode]; }
接下来下面就快拿起你的手机测试吧
有步骤讲解视频以及资料.由于简书文章没有地方放.你们能够加一下个人群获取一下。在群里讨论一下ARKit这一块。 QQ群号:656315826.