CUDA程式設計整理
CUDA程式設計的理論部分可以參考模型部署篇 中的GPU 的 CUDA 程式設計方法。
雖然CUDA有很多的C程式碼,這裡我們主要以C++為主。一個完整的CUDA程式,需要經歷7個步驟
- 設定顯示卡裝置
- 分配視訊記憶體空間
- 從記憶體到視訊記憶體拷貝資料
- 執行CUDA並行函式
- CUDA函式結束後,將結果從視訊記憶體拷貝回記憶體
- 釋放視訊記憶體空間
- 裝置重置
如果是單GPU的話可以省略1跟7兩個步驟。
#include <stdio.h>
#include <stdlib.h>
#include <cuda_runtime_api.h>
#include <iostream>
using namespace std;
/* 核函式 */
__global__ void kernelFunc(float *a) {
a[threadIdx.x] = 1;
}
int main(int argc, char **argv) {
//獲取GPU的數量
int gpuCount = -1;
cudaGetDeviceCount(&gpuCount);
cout << gpuCount << endl;
if (gpuCount < 0) {
cout << "no device" << endl;
}
//設定顯示卡裝置
cudaSetDevice(0);
//分配視訊記憶體空間
float *aGpu;
cudaMalloc((void**)&aGpu, 16 * sizeof(float));
//從記憶體到視訊記憶體拷貝資料
float a[16] = {0};
cudaMemcpy(aGpu, a, 16 * sizeof(float), cudaMemcpyHostToDevice);
//執行CUDA並行函式
kernelFunc <<<1, 16>> >(aGpu);
//CUDA函式結束後,將結果從視訊記憶體拷貝回記憶體
cudaMemcpy(a, aGpu, 16 * sizeof(float), cudaMemcpyDeviceToHost);
for (int i = 0; i < 16; i++) {
printf("%f", a[i]);
}
printf("\n");
//釋放視訊記憶體空間
cudaFree(aGpu);
//裝置重置
cudaDeviceReset();
//獲取裝置的屬性
cudaDeviceProp prop;
cudaGetDeviceProperties(&prop, 0);
//塊最大執行緒數
printf("maxThreadsPerBlock: %d\n", prop.maxThreadsPerBlock);
//塊維度最大值
printf("maxThreadsDim: %d\n", prop.maxThreadsDim[0]);
//Grid各維度最大值
printf("maxGridSize: %d\n", prop.maxGridSize[0]);
//常量記憶體的大小
printf("totalConstMem: %d\n", prop.totalConstMem);
//時鐘頻率
printf("clockRate: %d\n", prop.clockRate);
//GPU是否整合
printf("initegrated: %d\n", prop.integrated);
return 0;
}
CUDA的原始碼檔案以.cu為字尾,編譯命令如下(需要先安裝CUDA,安裝方式可以參考烏班圖安裝Pytorch、Tensorflow Cuda環境 )
nvcc main.cu -o main
執行結果
1
1.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.000000
maxThreadsPerBlock: 1024
maxThreadsDim: 1024
maxGridSize: 2147483647
totalConstMem: 65536
clockRate: 921600
initegrated: 1
「其他文章」