10个使用Numba CUDA进行编程的例子

以下是10个使用Numba CUDA进行编程的例子,这些例子涵盖了基本的向量加法、矩阵乘法以及其他一些常见操作:

  1. 向量加法
python 复制代码
from numba import cuda
import numpy as np
@cuda.jit
def vector_add(a, b, c):
    i = cuda.grid(1)
    if i < len(a):
        c[i] = a[i] + b[i]
a = np.array([1, 2, 3], dtype=np.float32)
b = np.array([4, 5, 6], dtype=np.float32)
c = np.zeros_like(a)
threads_per_block = 32
blocks_per_grid = (len(a) + (threads_per_block - 1)) // threads_per_block
vector_add[blocks_per_grid, threads_per_block](a, b, c)
print(c)
  1. 矩阵乘法
python 复制代码
@cuda.jit
def matmul(A, B, C):
    i, j = cuda.grid(2)
    if i < C.shape[0] and j < C.shape[1]:
        tmp = 0.
        for k in range(A.shape[1]):
            tmp += A[i, k] * B[k, j]
        C[i, j] = tmp
A = np.array([[1, 2], [3, 4]], dtype=np.float32)
B = np.array([[5, 6], [7, 8]], dtype=np.float32)
C = np.zeros((2, 2), dtype=np.float32)
threads_per_block = (16, 16)
blocks_per_grid_x = math.ceil(A.shape[0] / threads_per_block[0])
blocks_per_grid_y = math.ceil(B.shape[1] / threads_per_block[1])
blocks_per_grid = (blocks_per_grid_x, blocks_per_grid_y)
matmul[blocks_per_grid, threads_per_block](A, B, C)
print(C)
  1. 向量点乘
python 复制代码
@cuda.jit
def dot_product(a, b, result):
    i = cuda.grid(1)
    tmp = 0.0
    if i < a.shape[0]:
        tmp = a[i] * b[i]
    cuda.atomic.add(result, 0, tmp)
a = np.array([1, 2, 3], dtype=np.float32)
b = np.array([4, 5, 6], dtype=np.float32)
result = np.zeros(1, dtype=np.float32)
threads_per_block = 32
blocks_per_grid = (len(a) + (threads_per_block - 1)) // threads_per_block
dot_product[blocks_per_grid, threads_per_block](a, b, result)
print(result[0])
  1. 向量乘法
python 复制代码
@cuda.jit
def vector_multiply(a, b, c):
    i = cuda.grid(1)
    if i < len(a):
        c[i] = a[i] * b[i]
# 同向量加法示例中的初始化和调用方式
  1. 向量除法
python 复制代码
@cuda.jit
def vector_divide(a, b, c):
    i = cuda.grid(1)
    if i < len(a):
        c[i] = a[i] / b[i]
# 同向量加法示例中的初始化和调用方式
  1. 向量求和
python 复制代码
@cuda.jit
def vector_sum(a, result):
    i = cuda.grid(1)
    tmp = 0.0
    if i < a.shape[0]:
        tmp = a[i]
    cuda.atomic.add(result, 0, tmp)
# 同向量点乘示例中的初始化和调用方式
  1. 向量求最大值
python 复制代码
@cuda.jit
def vector_max(a, result):
    i = cuda.grid(1)
    if i < a.shape[0]:
        cuda.atomic.max(result, 0, a[i])
# 同向量点乘示例中的初始化和调用方式
  1. 向量求最小值
python 复制代码
@cuda.jit
def vector_min(a, result):
    i = cuda.grid(1)
    if i < a.shape[0]:
        cuda.atomic.min(result, 0, a[i])
# 同向量点乘示例中的初始化和调用方式
  1. 向量排序(冒泡排序)
python 复制代码
@cuda.jit
def bubble_sort(arr):
    i = cuda.grid(1)
    n = arr.shape[0]
    if i < n:
        for j in range(n - 1):
            if arr[i] > arr[j]:
                arr[i], arr[j] = arr[j], arr[i]
# 同向量加法示例中的初始化
相关推荐
DeepModel16 分钟前
机器学习非线性降维:局部线性嵌入 LLE
人工智能·机器学习
lUie INGA21 分钟前
rust web框架actix和axum比较
前端·人工智能·rust
新缸中之脑44 分钟前
HDRI-Generator: 环境贴图生成AI
人工智能·贴图
网安情报局1 小时前
企业押注Agentic SOC:AI重塑安全运营新范式
人工智能·网络安全
夜幕下的ACM之路1 小时前
一、基础知识学习(Transformer + 上下文窗口 + Token 计算 + Embedding 向量)
人工智能·学习·transformer·embedding
东离与糖宝1 小时前
LangChain4j vs Spring AI:最新对比,Java企业级Agent开发
java·人工智能
私人珍藏库1 小时前
[Windows] 绘画工具 Krita v5.3.1
人工智能·windows·媒体·工具·软件·多功能
前端摸鱼匠1 小时前
【AI大模型春招面试题13】残差连接(Residual Connection)与层归一化(Layer Norm)在Transformer中的作用?
人工智能·深度学习·语言模型·面试·transformer·求职招聘
重生之我要成为代码大佬1 小时前
HuggingFace生态实战:从模型应用到高效微调
人工智能·python·大模型·huggingface·模型微调