zoukankan      html  css  js  c++  java
  • 【CUDA并行程序设计系列(2)】CUDA简介及CUDA初步编程

    前言

    CUDA并行程序设计系列是本人在学习CUDA时整理的资料,内容大都来源于对《CUDA并行程序设计:GPU编程指南》、《GPU高性能编程CUDA实战》和CUDA Toolkit Documentation的整理。通过本系列整体介绍CUDA并行程序设计。内容包括GPU简介、CUDA简介、环境搭建、线程模型、内存、原子操作、同步、流和多GPU架构等。

    本系列目录:

    本文对CUDA进行简单介绍,并通过实例代码演示怎么编写在GPU上运行的代码,最后写一段代码来查询本机GPU的设备参数。

    CUDA C简介

    CUDA C是NVIDIA公司设计的一种编程语言,用于在GPU上得编写通用计算程序,目前也叫“ CUDA C and C++”,或者“CUDA C/C++”。CUDA C是C语言的扩展,所以使用起来和C语言类似。当然,CUDA现在已经不局限于C语言了,在NVIDIA ZONE的LANGUAGE SOLUTIONS就明确支持多种语言和开发环境,如:C++、Python、Java、.Net、OpenACC、OpenCL等,操作系统也支持Linux、Mac OS、Windows。当然,前提是电脑至少配备一个支持CUDA的GPU,在NVIDIA官方可以查看自己电脑的显卡是否支持CUDA。

    GPU计算能力

    在查看某个显卡是否支持CUDA时,还会看到一个计算能力(Compute Capability)的参数。正如不同的CPU有着不同的功能和指令集,对于支持CUDA的GPU也同样如此。NVIDIA将GPU支持的各种功能统称为计算能力。硬件的计算能力是固定的。不同计算能力具有一定差别,如,在计算能力1.0版本不支持全局内存上的原子操作。更高计算能力的GPU是低计算能力的超级,所以计算能力2.0支持的功能在3.0也全部支持。可以看到,目前GPU最高的计算能力已经达到5.3(Tegra X1)。

    环境搭建

    环境搭建比较简单,在NVIDIA开发官网选择对应的平台下载最新版(目前是7.5)并安装就行了。在CUDA Toolkit Online Documentation有详细的安装教程。

    Hello,World!

    新建一个文件“hello_world.cu"

    int main( void )
    {
        printf( "Hello, World!
    " );
        return 0;
    }
    

    除了后缀”.cu”表示CUDA文件,这段代码甚至不需要任何解释,下面编译并运行:

    nvcc hello_world.cu
    ./a.out
    

    输出:

    Hello, World!
    

    我们使用nvcc命令编译,这将使用CUDA C编译器来编译这段代码。

    修改一下这段代码:

    __global__  void kernel( void )
     {
    }
    
    int main( void )
    {
        kernel<<<1,1>>>();
        printf( "Hello, World!
    " );
        return 0;
    }
    

    编译运行结果还是一样的,可以看到CUDA C为标准C增加了__global__修饰符,这个修饰符告诉编译器,函数应该编译为在设备(Device)而不是主机(Host)上运行,CUDA把GPU称为设备(Device),把CPU称为主机(Host),而在GPU设备上执行的函数称为核函数(Kernel),在设备上运行的函数需要增加__global____device__修饰符。

    调用核函数增加了<<<1,1>>>修饰符,其它没有任何变化。当然,这段代码GPU并没有做什么实际的工作,下面让GPU实际做点事情。

    GPU上的加法

    修改上面的代码:

    __global__  void add( int a, int b, int *c )
    {
        *c = a + b;
    }
    
    int main( void )
    {
        int c;
        int *dev_c;
        cudaMalloc( &dev_c, sizeof(int) ) ;
    
        add<<<1,1>>>( 2, 7, dev_c );
    
        cudaMemcpy( &c, dev_c, sizeof(int),cudaMemcpyDeviceToHost );
        printf( "2 + 7 = %d
    ", c );
        cudaFree( dev_c );
    
        return 0;
    }
    

    主机调用核函数add做加法运算,函数add将在GPU上运行。需要注意的是,主机和设备在物理上处于不同的位置,使用了不同的内存,核函数不能直接使用主机上存储的数据,同样主机也不能直接使用设备上存储的数据,数据需要在主机和设备之间传输。

    在设备上分配内存使用cudaMalloc(),该函数类似malloc()。在执行完add函数后,计算结果保存在设备的内存上,还需要使用cudaMemcpy()传输到主机内存上,参数cudaMemcpyDeviceToHost表示从设备传输到主机。显然,cudaMemcpyHostToDevice表示从主机传输到设备,cudaMemcpyDeviceToDevice表示从设备传输到另一个设备。

    至此,一个完整地CUDA C代码已经实现,下面来写一段代码查询显卡的设备参数。

    查询设备

    在进行CUDA并行编程之前,对自己PC机的GPU设备性能及相关信息的了解是很有必要的,下面写一段代码来查询设备参数信息。

    查询设备时会用的几个函数:

    1. cudaGetDeviceCount(),获得CUDA设备的数量,一台PC可能会有多个CUDA设备,可以通过这个函数查询。
    2. cudaGetDeviceProperties(),通过设备编号查询设备属性,设备编号从0开始。设备属性保存在cudaDeviceProp结构体中,具体结构可查看cudaDeviceProp Struct Reference

    完整代码如下:

    int main(void)
    {
          cudaDeviceProp prop;
          int count;
    
          cudaGetDeviceCount(&count);
          printf("cuda device count: %d
    ", count);
    
          for (int i = 0; i < count; ++i)
          {
                cudaGetDeviceProperties(&prop, i);
    
                printf ("    ---  General Information for device %d ------
    ", i);
                printf ("Name: %s
    ", prop.name);
                printf ( "Compute capability: %d.%d
    ", prop.major, prop.minor );
                printf ( "Clock rate: %d 
    ", prop.clockRate );
                printf( "Device copy overlap: ");
                if (prop.deviceOverlap)
                {
                      printf ( "Enabled
    ");
                }
                else
                {
                      printf ( "Disabled
    " );
                }
                printf ( "Kernel execiton timeout: " );
                if (prop.kernelExecTimeoutEnabled )
                {
                      printf ( "Enabled
    " );
                }
                else
                {
                      printf ( "Disabled
    " );
                }
                printf ("integrated:");
                if (prop.integrated)
                {
                      printf("true
    ");
                }
                else
                {
                      printf("false
    ");
                }
                printf ( "--- Memory Information for device %d ----
    ", i);
                printf ( "Total global mem: %ld
    ", prop.totalGlobalMem );
                printf ( "Total constant Mem: %ld
    ", prop.totalConstMem );
                printf ("Max mem pitch: %ld
    ", prop.memPitch );
                printf ( "Texture Alignment: %ld
    ", prop.textureAlignment );
                printf ( "  --- MP Information for device %d ---
    ", i );
                printf ( "Multiprocessor count: %d
    ", prop.multiProcessorCount );
                printf ( "Shared mem per mp: %ld
    ", prop.sharedMemPerBlock );
                printf ("Registers per mp: %d
    ", prop.regsPerBlock );
                printf ("Threads in warp: %d
    ", prop.warpSize );
                printf ("Max threads per block: %d
    ", prop.maxThreadsPerBlock );
                printf ("Max thread dimensions: ( %d %d %d )
    ", prop.maxThreadsDim[0], prop.maxThreadsDim[1], prop.maxThreadsDim[2] );
                printf ("Max grid dimensions: ( %d %d %d )", prop.maxGridSize[0], prop.maxGridSize[1], prop.maxGridSize[2] );
                printf ("
    ");
          }
    
          return 0;
    }
    

    运行这段代码,就可以知道自己PC机配备GPU的具体信息,这对以后写代码是很重要的。

    参考文献

  • 相关阅读:
    PythonStudy——os 操作系统 模块
    PythonStudy——sys:系统 模块
    PythonStudy——datatime 模块
    PythonStudy——calendar 模块
    PythonStudy——time 模块
    PythonStudy——shelve 模块
    PythonStudy——hashlib 模块
    PythonStudy——hmac 模块
    JDK的版本历史
    Zookeeper分布式协调服务
  • 原文地址:https://www.cnblogs.com/5long/p/cuda-parallel-programming-2.html
Copyright © 2011-2022 走看看