CUDA API包括三个,从低到高等级分别为 Thrust API Runtime API Driver API编程
用于CUDA的GPU是安装于主机系统中的独立设备缓存
GPGPU运行在一个和主处理器相隔离的存储空间中异步
CUDA Kernel是可在主机代码中调用而在CUDA设备上运行的子程序(Kernel没有返回值)函数
Kernel的调用时异步的,即主机仅仅把要执行的Kernel顺序提交给GPGPU,并不等待执行完成,而后直接处理后面的其余任务性能
cudaThreadSynchronize() 使主机进入阻塞状态测试
cudaMemory() 实现阻塞式数据传输spa
GPU上的基本运行单位是线程线程
GPU上最大的可共享的内存区域成为全局内存内存
常量内存、高速缓存、共享内存、局域内存、纹理内存、寄存器ci
GPGPU编程的三条法则
1 将数据放入病始终存储于GPGPU
pcie总线速度大概是8gb/s,而GPU全局内存的速度大概是160-200gb/s
2 交给GPGPU足够多的任务
传输数据还要消耗时间,所以,最好让GPU工做时间能补偿传输所浪费的资源
3 注重GPGPU上的数据重用,以免带宽限制
尽可能重用数据以获取高性能
回归测试:常常用一段代码做为回归测试,测试kernel函数的正确性