参考learnopengl着色器
着色器(shader)是运行在GPU上的小程序,相似于C语言,构造一个着色器在其开头必须声明版本。本质上来讲,着色器是一个把输入转化为输出的程序。
着色器定义了in
和out
等关键字实现数据的输入和输出,从而实现数据的交流。若是从一个着色器向另外一个着色器发送数据,则必须在发送方声明一个输出,在接收方声明一个相似的输入。当类型和名字都相同的时候,便会自动连接在一块儿,实现数据传递。
另外一种从cpu向gpu发送数据的方式是uniform
。uniform
是全局的,无需借助其余中介实现数据传递。在着色器程序中声明uniform
变量,在主程序中经过glGetUniformLocation
得到其地址,从而设置着色器中uniform变量的值。git
如1中所述,GLSL运行在GPU,其经过接口实现和CPU之间的数据转换。
opengl程序涉及到两种类型的处理单元--CPU和GPU。opengl主程序由CPU调度运行,图像处理部分经过GLSL交由GPU执行。CPU与GPU之间的数据传递分三个步骤:一,首先利用内置的OpenGL函数生成一个ID号码;二,根据须要对该ID号码进行内存类型的绑定;在通过上面两个步骤以后,GPU中用于接收系统内存中数据的“标识符”就准备好了,第三部对这部份内存进行初始化,初始化的内容来自于系统内存中,这一部分功能利用glBufferData函数完成。
数据提交到GPU专用的内存中以后,须要根据应用场景对这些数据进行适当的分配。好比,有的数据当作顶点,有的是做为颜色,有的用于控制光照等等
此外,因为GPU具备高并行结构(heighly parallel structure),因此GPU在处理图形和复杂算法方面计算效率较高。CPU大部分面积为控制器和寄存器,而GPU拥有更多的ALU(Arithmetric Logic Unit,逻辑运算单云)用于数据处理,而非数据的高速缓存和流控制。github
[1] 帧缓冲(frame buffer):帧缓冲是下面几种缓冲的合集。经过帧缓冲能够将你的场景渲染到一个不一样的帧缓冲中,可使咱们可以在场景中建立镜子这样的效果,或者作出一些炫酷的特效,存放显示用的数据的。
[2] 颜色缓冲(color buffer):存储全部片断的颜色:即视觉输出的效果。
[3] 深度缓冲(depth buffer):根据缓冲的z值,肯定哪些面片被遮挡。由GLFW自动生成。
[4] 模板缓冲(stencil buffer):与深度测试相似,经过比较模板值和预设值,决定是否丢弃片断。
数据在opengl中处理顺序是: 顶点着色器 - 片断着色器 - 模板测试 - 深度测试
参考连接:http://blog.csdn.net/silangqu...算法
Mipmap是多级渐远纹理,也是目前应用最为普遍的纹理映射(map)技术之一。简单来讲,就是实现 “实物(图片)看起来近大远小,近处清晰远处模糊”的效果。它简单来讲就是一系列的纹理图像,后一个纹理图像是前一个的二分之一。多级渐远纹理背后的理念很简单:距观察者的距离超过必定的阈值,OpenGL会使用不一样的多级渐远纹理,即最适合物体的距离的那个。因为距离远,解析度不高也不会被用户注意到。同时,多级渐远纹理另外一加分之处是它的性能很是好小程序
局部空间(local space):或称为 物体空间.指对象所在的坐标空间
世界空间(world space):指顶点相对于(游戏)世界的坐标。物体变换到的最终空间就是世界坐标系
观察空间(view space):观察空间(View Space)常常被人们称之OpenGL的摄像机(Camera)(因此有时也称为摄像机空间(Camera Space)或视觉空间(Eye Space))。观察空间就是将对象的世界空间的坐标转换为观察者视野前面的坐标。所以观察空间就是从摄像机的角度观察到的空间
裁剪空间(clip sapce):或称为视觉空间.在一个顶点着色器运行的最后,OpenGL指望全部的坐标都能落在一个给定的范围内,且任何在这个范围以外的点都应该被裁剪掉(Clipped)。被裁剪掉的坐标就被忽略了,因此剩下的坐标就将变为屏幕上可见的片断。这也就是裁剪空间(Clip Space)名字的由来。
屏幕空间(screen space):顾名思义,通常由glViewPort
设置。
参考连接:http://learnopengl-cn.readthe...缓存
model
:主要针对模型的平移、旋转、缩放、错切等功能,将模型由局部空间转换到世界空间view
:视图矩阵。摄像机/观察者的位置等信息(设置鼠标移动、滚轮等效果),将全部世界坐标转换为观察坐标。projection
:投影矩阵。裁剪坐标 转换到屏幕上函数
首先简单了解一下什么是"状态机",好比咱们使用的电脑,接受各类输入(鼠标,键盘,摄像头等),而后改变本身当前的状态,但却并不知道状态的改变是如何实现的。opengl相似,接受各类参数,而后参数的改变引发当前状态的改变,达到一种新的状态(如:颜色改变,纹理变化,光照强弱变化)。
opengl状态机性能
冯式光照模型
:环境光照(Ambient)、漫反射(Diffuse)、镜面(Specular)
光源:点光、定向光、手电筒(聚光灯)测试
主要是经过图形渲染管线(管线:其实是指一堆原始图像数据途径一个输送管道,期间通过通过各类变换处理,最终输出在屏幕上的过程)
管理的,其被划分为两个过程:1. 把3D坐标转换为2D坐标(主要是经过投影矩阵完成)。 2. 把2D坐标转换为实际有颜色的像素。
2D坐标和像素是不一样的,2D坐标精确表示一个点在空间的位置,而2D像素(好像都是整数)是这个点的近似值,2D像素受到我的屏幕/窗口 分辨率的限制。
由图可知,传入到片断着色器的颜色值并非从顶点着色器传入的的,而是:顶点着色阶段(顶点、细分、几何)以及片断着色器之间有个光栅化阶段(光栅化
:主要职责是判断屏幕的哪一个部分被几何体所覆盖),也就是说传入片断着色器的结果是来自于光栅化的结果。spa
投影
:在计算机图形学中,投影能够看作一种将三维坐标变换为二维坐标的方法。经常使用的有:正投影和透视投影。透视投影
:是为了得到接近真实的三维物体效果而在二维平面上绘制、渲染的方法。相似于现实中人对事物的认识(近大远小,远处模糊近期清晰)。正投影
:正射投影矩阵定义了一个相似立方体的平截头箱,它定义了一个裁剪空间,在这空间以外的顶点都会被裁剪掉。摄像机
:观察空间常常被人们称之OpenGL的摄像机(Camera)(因此有时也称为摄像机空间(Camera Space)或视觉空间(Eye Space))。观察空间是将世界空间坐标转化为用户视野前方的坐标而产生的结果。所以观察空间就是从摄像机的视角所观察到的空间。而这一般是由一系列的位移和旋转的组合来完成,平移/旋转场景从而使得特定的对象被变换到摄像机的前方。这些组合在一块儿的变换一般存储在一个观察矩阵(View Matrix)里,它被用来将世界坐标变换到观察空间。
投影、摄像机、opengl坐标系统.net