OpenGL(Open Graphics Library)是一个跨编程语言、跨平台的编程图形程序接口,它将计算机的资源抽象称为一个个OpenGL的对象,对这些资源的操做抽象为一个个的OpenGL指令算法
OpenGL ES(OpenGL for Embedded Systems)是 OpenGL 三维图形 API 的子集,针对手机、PDA和游戏主机等嵌入式设备而设计,去除了许多没必要要和性能较低的API接口。编程
DirectX:是由不少API组成的,DirectX并非一个单纯的图形API. 最重要的是DirectX是属于Windows上一个多媒体处理API.并不支持Windows之外的平台,因此不是跨平台框架. 按照性质分类,能够分为四大部分,显示部分、声音部分、输入部分和网络部分.数组
Metal: Apple为游戏开发者推出了新的平台技术 Metal,该技术可以为 3D 图像提升 10 倍的渲染性能.Metal 是Apple为了解决3D渲染而推出的框架,在2014年之前苹果一直沿用OpenGL ES 来解决底层渲染.然后开始慢慢将自身的底层框架的依赖从OpenGL ES迁移到Metal.但其核心的处理思想仍是源于OpenGL ES.对于适应于OpenGL ES的开发者而言并无太大的改变.缓存
引言:bash
从2014年到2018年.苹果才完成了系统内部从OpenGL ES过分到Metal.直到WWDC 2018,Apple 宣布 iOS 12 将弃用 OpenGL / CL.微信
Apps built using OpenGL ES will continue to run in iOS 12, but Open GL ES is deprecated in iOS 12. Games and graphics-intensive apps that previously used OpenGL ES should now adopt Metal.网络
但值得注意的是:架构
- 首先苹果自身的系统迁移上是花费了4年时间作这样的筹备.
- 其次在没有推出Metal 苹果对于OpenGL ES是高度集成且配合相应图层和GLKit 来辅助开发者能快速使用OpenGL ES
- OpenGL ES的弃用,只是针对苹果内部系统底层API依赖而言,并非想让iOS开发者今后不使用OpenGLES. OpenGL ES只是角色变成第三方.毕竟它的跨平台以及稳定,是很难让现有的开发放弃.而这2点Metal 目前很难给到
- 最后,若是你们想要融入到项目组,而目前大多数相似百度地图,高德地图和音视频处理的项目组已是很是庞大的项目了,暂时不会迁移到Metal.因此咱们若是只会metal从实际场景中并不够.
- 因此咱们学习会从OpenGL->OpenGL ES->Metal
OpenGL 上下文(context) 在应用程序调用任何OpenGL的指令以前,须要安排首先建立一个OpenGL的上下文。这个上下文是一个很是庞大的状态机,保存了OpenGL中的各类状态,这也是OpenGL指令执行的基础。app
OpenGL的函数无论在哪一个语言中,都是相似C语言同样的面向过程的函数,本质上都是对OpenGL上下文这个庞大的状态机中的某个状态或者对象进行操做,固然你得首先把这个对象设置为当前对象。所以,经过对OpenGL指令的封装,是能够将OpenGL的相关调用封装成为一个面向对象的图形API的。框架
因为OpenGL上下文是一个巨大的状态机,切换上下文每每会产生较大的开销,可是不一样的绘制模块,可能须要使用彻底独立的状态管理。所以,能够在应用程序中分别建立多个不一样的上下文,在不一样线程中使用不一样的上下文,上下文之间共享纹理、缓冲区等资源。这样的方案,会比反复切换上下文,或者大量修改渲染状态,更加合理高效的。
OpenGL 状态机 状态机是理论上的一种机器.这个很是难以理解.因此咱们把这个状态机这么理解.状态机描述了一个对象在其生命周期内所经历的各类状态,状态间的转变,发生转变的动因,条件及转变中所执行的活动。或者说,状态机是一种行为,说明对象在其生命周期中响应事件所经历的状态序列以及对那些状态事件的响应。所以具备如下特色:
类推到OpenGL 中来,能够这么理解:
可使用glColor函数来选择一种颜色,之后绘制的全部物体都是这种颜色,除非再次使用glColor函数从新设定。
可使用glTexCoord函数来设置一个纹理坐标,之后绘制的全部物体都是采用这种纹理坐标,除非再次使用glTexCoord函数从新设置。
可使用glBlendFunc函数来指定混合功能的源因子和目标因子,之后绘制的全部物体都是采用这个源因子和目标因子,除非再次使用glBlendFunc函数从新指定。
可使用glLight*函数来指定光源的位置、颜色,之后绘制的全部物体都是采用这个光源的位置、颜色,除非再次使用glBlendFunc函数从新指定。
例如:
//获取是否深度测试/混合
glIsEnabled(GL_DEPTH_TEST);
glIsEnabled(GL_BLEND);
//开启深度测试/混合
glEnable(GL_DEPTH_TEST);
glEnable(GL_BLEND);
//关闭深度测试/混合
glDisable(GL_DEPTH_TEST);
glDisable(GL_BLEND);
复制代码
将图形/图像数据转换成3D空间图像操做叫作渲染(Rendering).
画图通常是先画好图像的骨架,而后再往骨架里面填充颜色,这对于OpenGL也是同样的。顶点数据就是要画的图像的骨架,和现实中不一样的是,OpenGL中的图像都是由图元组成。在OpenGLES中,有3种类型的图元:点、线、三角形。那这些顶点数据最终是存储在哪里的呢?开发者能够选择设定函数指针,在调用绘制方法的时候,直接由内存传入顶点数据,也就是说这部分数据以前是存储在内存当中的,被称为顶点数组。而性能更高的作法是,提早分配一块显存,将顶点数据预先传入到显存当中。这部分的显存,就被称为顶点缓冲区。 顶点指的是咱们在绘制一个图形时,它的顶点位置数据.而这个数据能够直接存储在数组中或者将其缓存到GPU内存中.
在OpenGL 下渲染图形,就会有经历一个一个节点.而这样的操做能够理解管线.你们能够想象成流水线.每一个任务相似流水线般执行.任务之间有前后顺序. 管线是一个抽象的概念,之因此称之为管线是由于显卡在处理数据的时候是按照一个固定的顺序来的,并且严格按照这个顺序。就像水从一根管子的一端流到另外一端,这个顺序是不能打破的
在早期的OpenGL 版本,它封装了不少种着色器程序块内置的一段包含了光照、坐标变换、裁剪等等诸多功能的固定shader程序来完成,来帮助开发者来完成图形的渲染. 而开发者只须要传入相应的参数,就能快速完成图形的渲染. 相似于iOS开发会封装不少API,而咱们只须要调用,就能够实现功能.不须要关注底层实现原理. 可是因为OpenGL 的使用场景很是丰富,固定管线或存储着色器没法完成每个业务.这时将相关部分开放成可编程.
就全面的将固定渲染管线架构变为了可编程渲染管线。所以,OpenGL在实际调用绘制函数以前,还须要指定一个由shader编译成的着色器程序。常见的着色器主要有顶点着色器(VertexShader),片断着色器(FragmentShader)/像素着色器(PixelShader),几何着色器(GeometryShader),曲面细分着色器(TessellationShader)。片断着色器和像素着色器只是在OpenGL和DX中的不一样叫法而已。惋惜的是,直到OpenGLES 3.0,依然只支持了顶点着色器和片断着色器这两个最基础的着色器。 OpenGL在处理shader时,和其余编译器同样。经过编译、连接等步骤,生成了着色器程序(glProgram),着色器程序同时包含了顶点着色器和片断着色器的运算逻辑。在OpenGL进行绘制的时候,首先由顶点着色器对传入的顶点数据进行运算。再经过图元装配,将顶点转换为图元。而后进行光栅化,将图元这种矢量图形,转换为栅格化数据。最后,将栅格化数据传入片断着色器中进行运算。片断着色器会对栅格化数据中的每个像素进行运算,并决定像素的颜色
通常用来处理图形每一个顶点变换(旋转/平移/投影等) 顶点着色器是OpenGL中用于计算顶点属性的程序。顶点着色器是逐顶点运算的程序,也就是说每一个顶点数据都会执行一次顶点着色器,固然这是并行的,而且顶点着色器运算过程当中没法访问其余顶点的数据。 通常来讲典型的须要计算的顶点属性主要包括顶点坐标变换、逐顶点光照运算等等。顶点坐标由自身坐标系转换到归一化坐标系的运算,就是在这里发生的。
通常用来处理图形中每一个像素点颜色计算和填充 片断着色器是OpenGL中用于计算片断(像素)颜色的程序。片断着色器是逐像素运算的程序,也就是说每一个像素都会执行一次片断着色器,固然也是并行的。
OpenGL着色语言(OpenGL Shading Language)是用来在OpenGL中着色编程的语言,也即开发人员写的短小的自定义程序,他们是在图形卡的GPU (Graphic Processor Unit图形处理单元)上执行的,代替了固定的渲染管线的一部分,使渲染管线中不一样层次具备可编程性。好比:视图转换、投影转换等。GLSL(GL Shading Language)的着色器代码分红2个部分:Vertex Shader(顶点着色器)和Fragment(片段着色器)
是把顶点数据转换为片元的过程,具备将图转化为一个个栅格组成的图象的做用,特色是每一个元素对应帧缓冲区中的一像素。 光栅化就是把顶点数据转换为片元的过程。片元中的每个元素对应于帧缓冲区中的一个像素。 光栅化实际上是一种将几何图元变为二维图像的过程。该过程包含了两部分的工做。第一部分工做:决定窗口坐标中的哪些整型栅格区域被基本图元占用;第二部分工做:分配一个颜色值和一个深度值到各个区域。光栅化过程产生的是片元 把物体的数学描述以及与物体相关的颜色信息转换为屏幕上用于对应位置的像素及用于填充像素的颜色,这个过程称为光栅化,这是一个将模拟信号转化为离散信号的过程
纹理能够理解为图片. 你们在渲染图形时须要在其编码填充图片,为了使得场景更加逼真.而这里使用的图片,就是常说的纹理.可是在OpenGL,咱们更加习惯叫纹理,而不是图片.
在测试阶段以后,若是像素依然没有被剔除,那么像素的颜色将会和帧缓冲区中颜色附着上的颜色进行混合,混合的算法能够经过OpenGL的函数进行指定。可是OpenGL提供的混合算法是有限的,若是须要更加复杂的混合算法,通常能够经过像素着色器进行实现,固然性能会比原生的混合算法差一些。
例如图形想发平生移,缩放,旋转变换.就须要使用变换矩阵.
用于将3D坐标转换为二维屏幕坐标,实际线条也将在二维坐标下进行绘制.
渲染缓冲区通常映射的是系统的资源好比窗口。若是将图像直接渲染到窗口对应的渲染缓冲区,则能够将图像显示到屏幕上。
可是,值得注意的是,若是每一个窗口只有一个缓冲区,那么在绘制过程当中屏幕进行了刷新,窗口可能显示出不完整的图像。
为了解决这个问题,常规的OpenGL程序至少都会有两个缓冲区。显示在屏幕上的称为屏幕缓冲区,没有显示的称为离屏缓冲区。在一个缓冲区渲染完成以后,经过将屏幕缓冲区和离屏缓冲区交换,实现图像在屏幕上的显示。
因为显示器的刷新通常是逐行进行的,所以为了防止交换缓冲区的时候屏幕上下区域的图像分属于两个不一样的帧,所以交换通常会等待显示器刷新完成的信号,在显示器两次刷新的间隔中进行交换,这个信号就被称为垂直同步信号,这个技术被称为垂直同步。
使用了双缓冲区和垂直同步技术以后,因为老是要等待缓冲区交换以后再进行下一帧的渲染,使得帧率没法彻底达到硬件容许的最高水平。为了解决这个问题,引入了三缓冲区技术,在等待垂直同步时,来回交替渲染两个离屏的缓冲区,而垂直同步发生时,屏幕缓冲区和最近渲染完成的离屏缓冲区交换,实现充分利用硬件性能的目的。
小编在这里给你们推荐一个优秀的iOS交流平台,平台里的伙伴们都是很是优秀的iOS开发人员,咱们专一于技术的分享与技巧的交流,你们能够在平台上讨论技术,交流学习。欢迎你们的加入(想要进入的可加微信)。 18174412518
做者:CC老师_HelloCoder 转载连接:www.jianshu.com/p/1b09101aa…