🥭CUDA(C)和PyCUDA(Python) GPU加速OpenCV视觉
CUDA | GPU | OpenCV | Jetson | 视觉系统 | C/C++ | 线程 | 同步对急捡测和跟踪 | 并行计算 | 矢量操作 | 算法效率 | Linux | 滤镜 | 高斯滤波 | 平均滤波| 中值滤波
CUDA
本节介绍一个简单的加法程序,该程序在设备上执行两个变量的加法。 虽然它没有利用设备的任何数据并行性,但它对于演示 CUDA C 的重要编程概念非常有用。首先,我们将看到如何编写一个用于添加两个变量的内核函数。
内核函数的代码如下所示:
include <iostream>
#include <cuda.h>
#include <cuda_runtime.h>
//Definition of kernel function to add two variables
__global__ void gpuAdd(int d_a, int d_b, int *d_c)
{
*d_c = d_a + d_b;
}
GPUADD函数看起来与ANSIC中实现的普通添加函数非常相似。它需要两个整数变量D_A和D_B作为输入,并将加法存储在第三个整数指针D_C指示的内存位置。 设备函数的返回值是无效的,因为它将答案存储在设备指针指向的内存位置中,而不是明确返回任何值。 现在,我们将看到如何编写此代码的主函数。 主函数的代码在此处显示:
int main(void)
{
//Defining host variable to store answer
int h_c;
//Defining device pointer
int *d_c;
//Allocating memory for device pointer
cudaMalloc((void**)&d_c, sizeof(int));
//Kernel call by passing 1 and 4 as inputs and storing answer in d_c
//<< <1,1> >> means 1 block is executed with 1 thread per block
gpuAdd << <1, 1 >> > (1, 4, d_c);
//Copy result from device memory to host memory
cudaMemcpy(&h_c, d_c, sizeof(int), cudaMemcpyDeviceToHost);
printf('1 + 4 = %d\\n', h_c);
//Free up memory
cudaFree(d_c);
return 0;
}
在 main 函数中,前两行定义了主机和设备的变量。第三行使用 cudaMalloc 函数在设备上分配 d_c 变量的内存。 cudaMalloc 函数类似于 C 中的 malloc 函数。在 main 函数的第四行中,调用 gpuAdd 时将 1 和 4 作为两个输入变量,将设备内存指针 d_c 作为输出指针变量。
下一节将解释 gpuAdd 函数的奇怪语法,也称为内核调用。如果需要在主机上使用 gpuAdd 的答案,则必须将其从设备内存复制到主机内存,这由 cudaMemcpy 函数完成。然后,使用 printf 函数打印此答案。倒数第二行通过使用 cudafree 函数释放设备上使用的内存。从程序中明确释放设备上使用的所有内存非常重要;否则,您可能会在某个时候耗尽内存。以 // 开头的行是为了提高代码可读性的注释,编译器会忽略这些行。
双变量加法程序有两个函数,main和gpuAdd。 如您所见,gpuAdd 是使用 global 关键字定义的,因此它是在设备上执行的,而 main 函数将在主机上执行。 该程序在设备上添加两个变量,并在命令行上打印输出,如下所示:
CUDA C 并行编程
线程、同步和内存
CUDA 高级概念
CUDA 和 OpenCV
OpenCV 和 CUDA 基本计算机视觉操作
OpenCV 和 CUDA 对象检测和跟踪
Jetson TX1开发板介绍及在Jetson TX1上安装OpenCV
在 Jetson TX1 上部署计算机视觉应用程序
PyCUDA 入门
使用 PyCUDA
使用 PyCUDA 的基本计算机视觉应用程序
Last updated