如何对矩阵的每一行应用numpy.linalg.norm?

99 投票
5 回答
97696 浏览
提问于 2025-04-17 04:10

我有一个二维矩阵,想要计算每一行的范数。但是当我直接使用 numpy.linalg.norm(X) 时,它计算的是整个矩阵的范数。

我可以通过使用循环来计算每一行的范数,也就是对每个 X[i] 进行计算,但这样做会花费很多时间,因为我有3万行。

有没有更快的方法?或者有没有办法将 np.linalg.norm 应用到矩阵的每一行?

5 个回答

27

比起被接受的答案,使用NumPy的 einsum 要快得多。

numpy.sqrt(numpy.einsum('ij,ij->i', a, a))

而且,如果把数据整理得更好,让计算的标准(norms)跨越所有的 ,速度会更快。

numpy.sqrt(numpy.einsum('ij,ij->j', aT, aT))

注意这里是对数刻度:

enter image description here


下面是重现这个图的代码:

import numpy as np
import perfplot

rng = np.random.default_rng(0)


def setup(n):
    x = rng.random((n, 3))
    xt = np.ascontiguousarray(x.T)
    return x, xt


def sum_sqrt(a, _):
    return np.sqrt(np.sum(np.abs(a) ** 2, axis=-1))


def apply_norm_along_axis(a, _):
    return np.apply_along_axis(np.linalg.norm, 1, a)


def norm_axis(a, _):
    return np.linalg.norm(a, axis=1)


def einsum_sqrt(a, _):
    return np.sqrt(np.einsum("ij,ij->i", a, a))


def einsum_sqrt_columns(_, aT):
    return np.sqrt(np.einsum("ij,ij->j", aT, aT))


b = perfplot.bench(
    setup=setup,
    kernels=[
        sum_sqrt,
        apply_norm_along_axis,
        norm_axis,
        einsum_sqrt,
        einsum_sqrt_columns,
    ],
    n_range=[2**k for k in range(20)],
    xlabel="len(a)",
)
b.show()
b.save("out.png")
60

因为numpy更新了,所以我想重新提一个老问题。从1.9版本开始,numpy.linalg.norm这个函数现在可以接受一个叫axis的参数。[代码, 文档]

这是现在最快的方法:

In [10]: x = np.random.random((500,500))

In [11]: %timeit np.apply_along_axis(np.linalg.norm, 1, x)
10 loops, best of 3: 21 ms per loop

In [12]: %timeit np.sum(np.abs(x)**2,axis=-1)**(1./2)
100 loops, best of 3: 2.6 ms per loop

In [13]: %timeit np.linalg.norm(x, axis=1)
1000 loops, best of 3: 1.4 ms per loop

为了证明它计算的结果是一样的:

In [14]: np.allclose(np.linalg.norm(x, axis=1), np.sum(np.abs(x)**2,axis=-1)**(1./2))
Out[14]: True
102

对于numpy 1.9及以上版本

注意,正如perimosocordiae所示,从NumPy 1.9版本开始,使用np.linalg.norm(x, axis=1)计算L2范数是最快的方法。

对于numpy 1.9以下版本

如果你要计算L2范数,可以直接计算(使用axis=-1参数来沿着行求和):

np.sum(np.abs(x)**2,axis=-1)**(1./2)

当然,Lp范数也可以用类似的方法计算。

这种方法比np.apply_along_axis快很多,虽然可能没有那么方便:

In [48]: %timeit np.apply_along_axis(np.linalg.norm, 1, x)
1000 loops, best of 3: 208 us per loop

In [49]: %timeit np.sum(np.abs(x)**2,axis=-1)**(1./2)
100000 loops, best of 3: 18.3 us per loop

其他ord形式的norm也可以直接计算(同样能加快速度):

In [55]: %timeit np.apply_along_axis(lambda row:np.linalg.norm(row,ord=1), 1, x)
1000 loops, best of 3: 203 us per loop

In [54]: %timeit np.sum(abs(x), axis=-1)
100000 loops, best of 3: 10.9 us per loop

撰写回答