为什么在Python中同样的矩阵乘法,Pytorch和Cupy比Numpy慢?

import cupy as cp
import numpy as np
x_cpu = np.random.randn(100, 100).astype(np.float32)
x_gpu = cp.asarray(x_cpu)
%%timeit
x_cpu*x_cpu
2.41 µs ± 19.7 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
%%timeit
x_gpu*x_gpu
14.3 µs ± 53.4 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
import torch
x_tensor = torch.from_numpy(x_cpu)
%%timeit
x_tensor*x_tensor
3.01 µs ± 33.5 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
x_gpu_tensor = x_tensor.cuda()
%%timeit
x_gpu_tensor*x_gpu_tensor
7.85 µs ± 13.9 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)

为什么在Python中同样的矩阵乘法,Pytorch和Cupy比Numpy慢?

11 回复

用 Python 你还在乎效率?


我无法理解你的问题。

GPU 加速

数据量太小,让 gpu 工作的一系列中间步骤所花费的时间占主要了,换大点的矩阵试试,比如 100000*100000

gpu 适合一次性处理大量的数据

当然,矩阵计算,numpy 可是堪比 matlab 的

直接用 * 是矩阵乘法吗……别的不知道,numpy 下是批量相乘吧……

numpy 里 x_cpu.dot(x_cpu) 才是矩阵乘法。

你这也不是矩阵乘法啊,这是 element wise 的乘法。另外,numpy 的矩阵乘法可以用到 blas 的库,优化的很好了

用 matmul()

给个数量级参照:
def add(a, b):
return a+b
def add2(a, b):
return add(a, b)

x = 100.0

%%timeit
add(x, x)
180 ns ± 6.67 ns per loop (mean ± std. dev. of 7 runs, 10000000 loops each)

%%timeit
add2(x, x)
281 ns ± 3.59 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each)

函数调用的开销都只比你低一个数量级了

量太小了,换成 5000 维的方阵,GPU 的并行加速的特性就能体现出来了

回到顶部