zoukankan      html  css  js  c++  java
  • CUDA 程序中的同步

    前言

      在并发,多线程环境下,同步是一个很重要的环节。同步即是指进程/线程之间的执行顺序约定。

      本文将介绍如何通过共享内存机制实现块内多线程之间的同步。

      至于块之间的同步,需要使用到 global memory,代价较为高昂,目前使用的情况也不多,就先不介绍了。

    块内同步函数:__syncthreads ()

      线程调用此函数后,该线程所属块中的所有线程均运行到这个调用点后才会继续往下运行。

    代码示例

      使用同步思想优化之前一篇博文中提到的数组求和程序。在新的程序中,让每个块中的第一个线程将块中所有线程的运算结果都加起来,然后再存入到结果数组中。这样,结果数组的长度与块数相等 (原来是和总线程数相等),大大降低了 CPU 端程序求和的工作量以及需要传递进/出显存的数据 (代码下方如果出现红色波浪线无视之):

      1 // 相关 CUDA 库
      2 #include "cuda_runtime.h"
      3 #include "cuda.h"
      4 #include "device_launch_parameters.h"
      5 
      6 // 此头文件包含 __syncthreads ()函数
      7 #include "device_functions.h"
      8 
      9 #include <iostream>
     10 #include <cstdlib>
     11 
     12 using namespace std;
     13 
     14 const int N = 100;
     15 
     16 // 块数
     17 const int BLOCK_data = 3; 
     18 // 各块中的线程数
     19 const int THREAD_data = 10; 
     20 
     21 // CUDA初始化函数
     22 bool InitCUDA()
     23 {
     24     int deviceCount; 
     25 
     26     // 获取显示设备数
     27     cudaGetDeviceCount (&deviceCount);
     28 
     29     if (deviceCount == 0) 
     30     {
     31         cout << "找不到设备" << endl;
     32         return EXIT_FAILURE;
     33     }
     34 
     35     int i;
     36     for (i=0; i<deviceCount; i++)
     37     {
     38         cudaDeviceProp prop;
     39         if (cudaGetDeviceProperties(&prop,i)==cudaSuccess) // 获取设备属性
     40         {
     41             if (prop.major>=1) //cuda计算能力
     42             {
     43                 break;
     44             }
     45         }
     46     }
     47 
     48     if (i==deviceCount)
     49     {
     50         cout << "找不到支持 CUDA 计算的设备" << endl;
     51         return EXIT_FAILURE;
     52     }
     53 
     54     cudaSetDevice(i); // 选定使用的显示设备
     55 
     56     return EXIT_SUCCESS;
     57 }
     58 
     59 // 此函数在主机端调用,设备端执行。
     60 __global__ 
     61 static void Sum (int *data,int *result)
     62 {
     63     // 声明共享内存 (数组)
     64     extern __shared__ int shared[]; 
     65     // 取得线程号
     66     const int tid = threadIdx.x; 
     67     // 获得块号
     68     const int bid = blockIdx.x; 
     69 
     70     shared[tid] = 0;
     71     // 有点像网格计算的思路
     72     for (int i=bid*THREAD_data+tid; i<N; i+=BLOCK_data*THREAD_data)
     73     {
     74         shared[tid] += data[i];
     75     }
     76    
     77     // 块内线程同步函数
     78     __syncthreads ();
     79 
     80     // 每个块内索引为 0 的线程对其组内所有线程的求和结果再次求和
     81     if (tid == 0) {
     82         for(int i = 1; i < THREAD_data; i++) { 
     83             shared[0] += shared[i];
     84         }
     85         // result 数组存放各个块的计算结果
     86         result[bid] = shared[0];
     87     }
     88 }
     89 
     90 int main ()
     91 {
     92     // 初始化 CUDA 编译环境
     93     if (InitCUDA()) {
     94         return EXIT_FAILURE;
     95     }
     96     cout << "成功建立 CUDA 计算环境" << endl << endl;
     97 
     98     // 建立,初始化,打印测试数组
     99     int *data = new int [N];
    100     cout << "测试矩阵: " << endl;
    101     for (int i=0; i<N; i++)
    102     {
    103         data[i] = rand()%10;
    104         cout << data[i] << " ";
    105         if ((i+1)%10 == 0) cout << endl;
    106     }
    107     cout << endl;
    108 
    109     int *gpudata, *result; 
    110     
    111     // 在显存中为计算对象开辟空间
    112     cudaMalloc ((void**)&gpudata, sizeof(int)*N); 
    113     // 在显存中为结果对象开辟空间
    114     cudaMalloc ((void**)&result, sizeof(int)*BLOCK_data);
    115     
    116     // 将数组数据传输进显存
    117     cudaMemcpy (gpudata, data, sizeof(int)*N, cudaMemcpyHostToDevice); 
    118     // 调用 kernel 函数 - 此函数可以根据显存地址以及自身的块号,线程号处理数据。
    119     Sum<<<BLOCK_data,THREAD_data,THREAD_data*sizeof (int)>>> (gpudata,result);
    120     
    121     // 在内存中为计算对象开辟空间
    122     int *sumArray = new int[BLOCK_data];
    123     // 从显存获取处理的结果
    124     cudaMemcpy (sumArray, result, sizeof(int)*BLOCK_data, cudaMemcpyDeviceToHost);
    125     
    126     // 释放显存
    127     cudaFree (gpudata); 
    128     cudaFree (result);
    129 
    130     // 计算 GPU 每个块计算出来和的总和
    131     int final_sum=0;
    132     for (int i=0; i<BLOCK_data; i++)
    133     {
    134         final_sum += sumArray[i];
    135     }
    136 
    137     cout << "GPU 求和结果为: " << final_sum << endl;
    138 
    139     // 使用 CPU 对矩阵进行求和并将结果对照
    140     final_sum = 0;
    141     for (int i=0; i<N; i++)
    142     {
    143         final_sum += data[i];
    144     }
    145     cout << "CPU 求和结果为: " << final_sum << endl;
    146 
    147     getchar();
    148 
    149     return 0;
    150 }

    运行结果

      

      PS:矩阵元素是随机生成的

    小结

      共享内存,或者说这个共享数组是 CUDA 中实现同步最常用的方法。

  • 相关阅读:
    8.SpringMVC参数传递
    9.SpringMVC和json结合传递参数
    20160815命令行进入其他盘
    5.SpringMVC静态文件的访问
    6.SpringMVC注解启用
    7.SpringMVC注解优化
    3.SpringMVC修改配置文件路径和给界面传递数据
    rails
    SVN Merge合并 Patch打补丁
    Windows环境下怎么在文件夹下打开cmd命令行
  • 原文地址:https://www.cnblogs.com/scut-fm/p/3761399.html
Copyright © 2011-2022 走看看