CUDA編程整理
CUDA編程的理論部分可以參考模型部署篇 中的GPU 的 CUDA 編程方法。
雖然CUDA有很多的C代碼,這裏我們主要以C++為主。一個完整的CUDA程序,需要經歷7個步驟
- 設置顯卡設備
- 分配顯存空間
- 從內存到顯存拷貝數據
- 執行CUDA並行函數
- CUDA函數結束後,將結果從顯存拷貝回內存
- 釋放顯存空間
- 設備重置
如果是單GPU的話可以省略1跟7兩個步驟。
#include <stdio.h>
#include <stdlib.h>
#include <cuda_runtime_api.h>
#include <iostream>
using namespace std;
/* 核函數 */
__global__ void kernelFunc(float *a) {
a[threadIdx.x] = 1;
}
int main(int argc, char **argv) {
//獲取GPU的數量
int gpuCount = -1;
cudaGetDeviceCount(&gpuCount);
cout << gpuCount << endl;
if (gpuCount < 0) {
cout << "no device" << endl;
}
//設置顯卡設備
cudaSetDevice(0);
//分配顯存空間
float *aGpu;
cudaMalloc((void**)&aGpu, 16 * sizeof(float));
//從內存到顯存拷貝數據
float a[16] = {0};
cudaMemcpy(aGpu, a, 16 * sizeof(float), cudaMemcpyHostToDevice);
//執行CUDA並行函數
kernelFunc <<<1, 16>> >(aGpu);
//CUDA函數結束後,將結果從顯存拷貝回內存
cudaMemcpy(a, aGpu, 16 * sizeof(float), cudaMemcpyDeviceToHost);
for (int i = 0; i < 16; i++) {
printf("%f", a[i]);
}
printf("\n");
//釋放顯存空間
cudaFree(aGpu);
//設備重置
cudaDeviceReset();
//獲取設備的屬性
cudaDeviceProp prop;
cudaGetDeviceProperties(&prop, 0);
//塊最大線程數
printf("maxThreadsPerBlock: %d\n", prop.maxThreadsPerBlock);
//塊維度最大值
printf("maxThreadsDim: %d\n", prop.maxThreadsDim[0]);
//Grid各維度最大值
printf("maxGridSize: %d\n", prop.maxGridSize[0]);
//常量內存的大小
printf("totalConstMem: %d\n", prop.totalConstMem);
//時鐘頻率
printf("clockRate: %d\n", prop.clockRate);
//GPU是否集成
printf("initegrated: %d\n", prop.integrated);
return 0;
}
CUDA的源碼文件以.cu為後綴,編譯命令如下(需要先安裝CUDA,安裝方式可以參考烏班圖安裝Pytorch、Tensorflow Cuda環境 )
nvcc main.cu -o main
運行結果
1
1.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.000000
maxThreadsPerBlock: 1024
maxThreadsDim: 1024
maxGridSize: 2147483647
totalConstMem: 65536
clockRate: 921600
initegrated: 1
「其他文章」