GPU架构
SM( )是GPU架构中非常重要的部分,GPU硬件的并行性就是由SM决定的 。
以Fermi架构为例,其包含以下主要组成部分:
GPU中每个SM都设计成支持数以百计的线程并行执行,并且每个GPU都包含了很多的SM,所以GPU支持成百上千的线程并行执行,当一个启动后,会被分配到这些SM中执行 。大量的可能会被分配到不同的SM,但是同一个block中的必然在同一个SM中并行执行 。
CUDA采用(SIMT)的架构来管理和执行,这些以32个为单位组成一个单元,称作warps 。warp中所有线程并行的执行相同的指令 。每个拥有它自己的和状态寄存器,并且用该线程自己的数据执行指令 。
SIMT和SIMD( ,Data)类似,SIMT应该算是SIMD的升级版,更灵活,但效率略低,SIMT是提出的GPU新概念 。二者都通过将同样的指令广播给多个执行官单元来实现并行 。一个主要的不同就是,SIMD要求所有的 在一个统一的同步组里同步的执行,而SIMT允许线程们在一个warp中独立的执行 。SIMT有三个SIMD没有的主要特征:
更细节的差异可以看这里 。
一个block只会由一个SM调度,block一旦被分配好SM,该block就会一直驻留在该SM中,直到执行结束 。一个SM可以同时拥有多个block 。下图显示了软件硬件方面的术语:
文章插图
【CUDA 学习笔记四】需要注意的是,大部分只是逻辑上并行,并不是所有的可以在物理上同时执行 。这就导致,同一个block中的线程可能会有不同步调 。
并行之间的共享数据回导致竞态:多个线程请求同一个数据会导致未定义行为 。CUDA提供了API来同步同一个block的以保证在进行下一步处理之前,所有都到达某个时间点 。尽管如此,我们是没有什么原子操作来保证block内部的同步的 。
同一个warp中的可以以任意顺序执行, warps被SM资源限制 。当一个warp空闲时,SM就可以调度驻留在该SM中另一个可用warp 。在并发的warp之间切换是没什么消耗的,因为硬件资源早就被分配到所有和block,所以该新调度的warp的状态已经存储在SM中了 。
SM可以看做GPU的心脏,寄存器和共享内存是SM的稀缺资源 。CUDA将这些资源分配给所有驻留在SM中的 。因此,这些有限的资源就使每个SM中 warps有非常严格的限制,也就限制了并行能力 。所以,掌握部分硬件知识,有助于CUDA性能提升 。
Fermi架构
Fermi是第一个完整的GPU计算架构 。
文章插图
每个SM由一下几部分组成:
架构
相较于Fermi更快,效率更高,性能更好 。
文章插图
文章插图
文章插图
是的新特性,允许GPU动态的启动新的Grid 。有了这个特性,任何内都可以启动其它的了 。这样直接实现了的递归以及解决了之间数据的依赖问题 。也许D3D中光的散射可以用这个实现 。
文章插图
Hyper-Q
Hyper-Q是的另一个新特性,增加了CPU和GPU之间硬件上的联系,使CPU可以在GPU上同时运行更多的任务 。这样就可以增加GPU的利用率减少CPU的闲置时间 。Fermi依赖一个单独的硬件上的工作队列来从CPU传递任务给GPU,这样在某个任务阻塞时,会导致之后的任务无法得到处理,Hyper-Q解决了这个问题 。相应的,为GPU和CPU提供了32个工作队列 。
- android开发笔记之电池低电处理
- 管理经济学 读书笔记 一
- [Unity实践笔记] 整页翻、防误触的ScrollView
- 什么是机器学习?看完就明白了
- Few-shot Learning 小样本学习在图像领域的研究现状
- Vue的学习笔记二:万里长征第一步~Vue调试工具安装
- 软件工程实务学习总结
- 【自学笔记】在天地图展示多个标注和文字信息
- 三 三维荧光平行因子学习记录--使用DOMfluor工具箱进行平行因子分析
- 《西蒙斯》阅读笔记之二:万行并发