分布式计算课程补充笔记 part 4

 ▶ 并行通讯方式:

map         映射      全局一到一   全局单元素计算操作
transpose   转置      一到一       单元素位移
gather      收集      多到一       元素搬运不计算        
scatter     分散      一到多       元素搬运不计算
stencil     模板      全局多到一   模板计算(例如卷积)
reduce      归约      全局多到一   元素计算成一个值   
scan/sort   扫描排序  全局多到多   元素局部或全局调整

▶ 几种扫描方法:

● 线性扫描,O(n) 个 step(完全不并行),O(n) 次加法。适用于只有一个处理器的情形

[ 1, 2, 3, 4, 5, 6, 7, 8]
[    3                  ]   // 每个数和它左1格的数字相加
[       6               ]
...
[ 1  3  6 10 15 21 28 36]   // 结果

● 闭扫描的 Hillis Steele 算法,O(log n) 个 step(理解为该矩形的宽度),O(n log n) 次加法(理解为该矩形的面积)。适用于处理器较多,算法受步数限制的情形,步骤效率(step efficiency)较高,步数少

[ 1, 2, 3, 4, 5, 6, 7, 8]
[    3  5  7  9 11 13 15]   // 每个数和它左1格的数字相加,没有左1格的数字原样补齐
[       6 10 14 18 22 26]   // 每个数和它左2格的数字相加,没有左2格的数字原样补齐
[            15 21 28 36]   // 每个数和它左4格的数字相加,没有左4格的数字原样补齐
[ 1  3  6 10 15 21 28 36]   // 结果

● 开扫描的 Blelloch 算法,O(log n) 个 step(HS方法的两倍),O(n) 次加法(把 n 个数字加成一个)。适用于处理器较少,算法受工作量限制的情形,工作效率(work efficiency)较高,步数多

[ 1, 2, 3, 4, 5, 6, 7, 8]
[    3     7    11    15]   // 第2k个数和它左1格的数相加,第2k-1个数原样补齐
[         10          26]   // 第4k个数和它左2格的数相加,其他数原样补齐
[                     36]   // 第8k个数和它左4格的数相加,其他数原样补齐(其实不需要)
[         10           0]   // 写出中间的数(表示原数组前半段的和),最后一个数补0(表示原数组第一个数以前的和)
[          0          10]   // 交叉计算,l'=r,r'=l+r
[    3     0    11    10]   // 写出前后半段中间的数(表示前后半段各前半段的和)
[    0     3    10    21]   // 交叉计算
[ 1  0  3  3  5 10  7 21]   // 写出各半段中间的数(表示各半段中前半段的和)
[ 0  1  3  6 10 15 21 28]   // 交叉计算,结果

▶ compact过程:

input:      [ 2, 3, 5, 7,11,13,17,19,23,29,31,37]
filter:     [ 1, 0, 0, 1, 1, 1, 1, 0, 0, 1, 0, 1] // 由筛选期计算得到,可以并行
address:    [ 0, 1, 1, 1, 2, 3, 4, 5, 5, 5, 6, 6] // filter 的开扫描,若 input[i] 被选中,则它应该放到 output 的第 address[i] 位置 
output:     [ 2, 7,11,13,17,19,37]                // 将输入数组中的值依地址数组相应位置上的值进行输出:[output[address[i]]=input[i] if filter[i] for i in range(len(input))];

▶ APOD: analyze, parallelize, optimice, deploy。

● 并行优化的两种体现:

■ 弱缩放:当并行规模增大时,如何解决更大规模的问题

■ 强缩放:当并行规模增大时,如何缩短解决问题的时间

● CUDA 程序优化方法思路:

■ 优化GPU占用率:各 SM、各 block、各 thread 分配时间相近的任务

■ 合并内存访问,减少全局内存的访问

■ 优化同步延迟:减少 __syncthreads(); 的等待时间,尽量使内存带宽饱和。适量减少每个 block 的 thread 数量,增加每个 SM 的 block 数量来改善,但是若 block 过小、过于分散不利于合并全局内存访问,当线程块数量为流处理器数量的2倍时,计算效率最高(经验关系)

■ 最小化线程分支发散(改进算法)。重整 Warp,使得分支在 Warp 之间而不是 Warp 之内

■ 优化循环结构,减少循环次数差距

■ 使用cuda内置函数,有目的的使用单双精度数字

■ 管理线程通讯(适当增加或减少线程间通讯,调整计算效率)

▶ 7 种常见并行程序优化模式

1、数据布局变换(Data layout transformation)

struct foo { float a; float b; } aa[8];     //结构数组,array of atructures, AOS

struct foo { float a[8]; float b[8]; } aa;  //数组结构,structure of arrays, SOA

2、发散 - 收集变换(Scatter - to - gather transformation)

out[i]=in[i-10]+in[i]+in[i+10]  // 分散地址访问

out[i]=in[i-1]+in[i]+in[i+1]    // 紧缩地址访问

3、瓦片(Tiling)利用更广高速度的内存形式,如 __shared__

4、私有化(Privatization)将多个线程需要同时用到的同一内存数据分割或另存为多个副本,供不同线程单独使用,避免内存读取冲突和延迟。例如计算直方图

5、进仓(Binning)将输出位置映射到输入数据的较小子集上。例如筛选距离某点最近的 n 个点,先画粗网格进行第一轮筛选,剩下的点都不要

6、压缩(Compaction)创造一个仅包含活动元素的紧凑数据组,防止多余的线程闲置。加速比例不能超过线程束中的线程数量,即 32 倍。例如大矩阵乘法分块

7、正则化(Regularization)负载均衡,设置每个线程需要完成的工作量的上限,超出的部分利用其它的核函数或者CPU来补充完成。例如典例:地图上寻找相邻的给定点

▶ Warp 含有 32 条 thread,优先按照 threadIdx.x 划分,再按照 threadIdx.y,最后按照 threadIdx.z 划分。同一时刻只能执行统一一条指令,分支结构会先执行一部分,挂起后再执行另一部分,总时间变长。

// 典例:
switch(threadIdx.x%32){case 0 ~ 31: foo<<<1,1024>>>();}         // 减速为1/32,每个线程分别执行一次
    
switch(threadIdx.x%64){case 0 ~ 63: foo<<<1,1024>>>();}         // 减速为1/32,因为每个Warp中只有32个线程,不可能有更改多的分支     
                      
switch(threadIdx.y){case 0 ~ 15:    foo<<<1,dim3(64,16)>>>();}  // 不减速,因为每个Warp中各线程的threadIdx.y是相等的

switch(threadIdx.y){case 0 ~ 15:    foo<<<1,dim3(16,16)>>>();}  // 减速为1/2,因为每个Warp中各线程threadIdx.y有两个值

switch(threadIdx.x%2){case 0 ~ 31:  foo<<<1,1024>>>();}         // 减速为1/2,共 2 种取值

switch(threadIdx.x/32){case 0 ~ 31: foo<<<1,1024>>>();}         // 不减速,所有线程计算值相等

switch(threadIdx.x/8){case 0 ~ 31:  foo<<<1,1024>>>();}         // 减速为1/4,共 4 种取值

▶ 利用宏__CUDA_ARCH__生成同时在主机和设备上运行的同一个程序,并具有不同处理方式,宏__CUDA_ARCH__是一个整数,百位表示计算功能集主版本号

1 __host__ __device__ int myFunc(void)
2 {
3     #if defined(__CUDA_ARCH__)
4         // Device code here
5     #else
6         // Host code here
7     #endif
8 }

▶ GPU工作调度机制:将流中工作映射,先按工作种类(核函数引擎、内存拷贝引擎等)分类再按时间先后串行,不同流的同一类型的工作之间仍然曾在阻塞,应该采用广度优先策略,分拆多个任务穿插道不同的流中,以便在一个流占用核函数引擎的时候另一个流占用内存拷贝引擎

● 若同时运行两个指向同一地址的流,则仍会并行运行,但结果未定义

1 cudaMemcpyAsync(&d_array,&h_array,ARRAY_BYTES,cudaMemcpyHostToDevice,s1);
2 foo<<<blocks,threads,s2>>>(d_array);

▶ 图 G = (V,E) 的并行广度优先遍历算法(O(n2)):

● 开启V个线程,将根节点标记为0,其他标记为-1

● 开启V个线程,每次循环检查相应的顶点是否存在这样一条边,该边的一端已经被标价,另一端没有被标记:若存在,则将没有被标记的端点标记为已标记的端点的值+1,并且报告遍历尚未结束;若不存在,则不做改变,报告该节点遍历已经结束

 1 __global__ void bfs(const Edge * edges, Vertex * vertices, int currentDepth, bool *done)
 2 {
 3     int e = blockDim.x * blockIdx.x + threadIdx.x;
 4     int dfirst = vertices[edges[e].first], dsecond = vertices[edge[e].second];
 5     if (dfirst == currentDepth && dsecond == -1)
 6     {
 7         vertices[vsecond] = dfirst + 1;
 8         *done = false;
 9     }
10     else if (dsecond == current_depth && dfirst == -1)
11     {
12         vertices[vfirst] = dsecond + 1;
13         *done = false;
14     }
15     else
16         *done = true;
17     return;
18 }

▶ 图 G = (V,E) 的并行广度优先遍历算法(O(n)):

● 用类似SCR的方式存储一张图,保存两个数组

C:依次保存每个节点的邻居的编号,长度等于边的条数

R:依次保存每个节点的邻居在 C 中的起点位置,长度等于节点个数+1,最后一个位置存放边的条数,方便最后一个节点的计算

D:依次保存每个节点的深度,长度等于节点个数

● 步骤:
■ 对边界中的每个节点,利用R找到其邻居编号在 C 中的起点以及邻居个数,如对于编号为v的节点,其邻居编号在C中起点为 R[v],邻居个数为 R[v+1] - R[v]

■ 找到边界的所有相邻节点,依次入队

■ 删除队中已经被标记过的节点(根据D中数据),队空说明已经完成了遍历

■ 确认新节点,标记为边界,返回 1   

▶ cuBLAS 使用范例(编译时添加 -L cublas)

 1 {
 2     int N = 1 << 20;
 3     cublasInit();
 4     cublasAlloc(N, sizeof(float), (void **)&d_x);
 5     cublasAlloc(N, sizeof(float), (void **)&d_y);
 6 
 7     cublasSetVector(N,sizeof(x[0]), x, 1, d_x, 1);
 8     cublasSetVector(N,sizeof(y[0]), y, 1, d_y, 1);
 9 
10     cublasSaxpy(N, 2.0, x,1, y, 1);                 // 单精度 y += a*x
11 
12     cublasSetVector(N,sizeof(y[0]), d_y, 1, y, 1);
13 
14     cublasFree(d_x);
15     cublasFree(d_y);
16     cublasShutdown();
17 }

▶ MCUDA 工具(Linux平台)将 CUDA 代码编译为可以在主机 CPU 上运行的程序

▶ Thrust库,CUDA中类似STL的并行函数库

▶ CudaDMA库,优化全局内存和共享内存交换

▶ Kahan求和算法:人为记录浮点数加法过程中每一步的舍入误差,并在计算最后进行补偿,减小了总体计算误差

 1 {
 2     float a[N], temp, compensation = 0.0f, sum_old, sum = 0.0f;
 3     for(int i = 0; i < N; i++)
 4     {
 5         sum_old = sum;                          //记录前i个数的和
 6         temp = a[i] + compemsation;             //计算补偿以后的新待加数
 7         sum += temp;                            //获得前i+1个数的和
 8         compensation = temp + sum_old - sum0;   //计算新的补偿
 9     }
10     sum += compensation;                        //剩余补偿
11 }
原文地址:https://www.cnblogs.com/cuancuancuanhao/p/10225734.html