CUDA入门

CUDA API包括三个,从低到高等级分别为 Thrust API  Runtime API   Driver API编程

 

用于CUDA的GPU是安装于主机系统中的独立设备缓存

GPGPU运行在一个和主处理器相隔离的存储空间中异步

CUDA Kernel是可在主机代码中调用而在CUDA设备上运行的子程序(Kernel没有返回值)函数

Kernel的调用时异步的,即主机仅仅把要执行的Kernel顺序提交给GPGPU,并不等待执行完成,而后直接处理后面的其余任务性能

  cudaThreadSynchronize() 使主机进入阻塞状态测试

  cudaMemory() 实现阻塞式数据传输spa

GPU上的基本运行单位是线程线程

GPU上最大的可共享的内存区域成为全局内存内存

  常量内存、高速缓存、共享内存、局域内存、纹理内存、寄存器ci

 

GPGPU编程的三条法则

  1 将数据放入病始终存储于GPGPU

    pcie总线速度大概是8gb/s,而GPU全局内存的速度大概是160-200gb/s

  2 交给GPGPU足够多的任务

    传输数据还要消耗时间,所以,最好让GPU工做时间能补偿传输所浪费的资源

  3 注重GPGPU上的数据重用,以免带宽限制

    尽可能重用数据以获取高性能

 

回归测试:常常用一段代码做为回归测试,测试kernel函数的正确性

相关文章
相关标签/搜索