矩阵所有行对的相关系数和p值
我有一个矩阵 data
,里面有 m 行和 n 列。我之前用 np.corrcoef
来计算所有行之间的相关系数。
import numpy as np
data = np.array([[0, 1, -1], [0, -1, 1]])
np.corrcoef(data)
现在我还想看看这些相关系数的 p 值。np.corrcoef
不提供 p 值,而 scipy.stats.pearsonr
可以提供。不过,scipy.stats.pearsonr
不接受矩阵作为输入。
有没有什么简单的方法可以同时计算所有行对的相关系数和 p 值(比如得到两个 m x m 的矩阵,一个是相关系数,另一个是对应的 p 值),而不需要手动去一对一地计算?
8 个回答
这个功能的表现和MATLAB里的corrcoef完全一样:
要让这个功能正常工作,你需要安装pandas和scipy这两个库。
# Compute correlation correfficients matrix and p-value matrix
# Similar function as corrcoef in MATLAB
# dframe: pandas dataframe
def corrcoef(dframe):
fmatrix = dframe.values
rows, cols = fmatrix.shape
r = np.ones((cols, cols), dtype=float)
p = np.ones((cols, cols), dtype=float)
for i in range(cols):
for j in range(cols):
if i == j:
r_, p_ = 1., 1.
else:
r_, p_ = pearsonr(fmatrix[:,i], fmatrix[:,j])
r[j][i] = r_
p[j][i] = p_
return r, p
如果你不一定要使用 皮尔逊相关系数,你可以选择使用 斯皮尔曼相关系数。因为斯皮尔曼相关系数可以同时返回相关矩阵和p值(需要注意的是,皮尔逊相关系数要求你的数据是正态分布的,而斯皮尔曼相关系数是一种非参数测量方法,不需要假设你的数据是正态分布的)。下面是一个示例代码:
from scipy import stats
import numpy as np
data = np.array([[0, 1, -1], [0, -1, 1], [0, 1, -1]])
print 'np.corrcoef:', np.corrcoef(data)
cor, pval = stats.spearmanr(data.T)
print 'stats.spearmanr - cor:\n', cor
print 'stats.spearmanr - pval\n', pval
这有点像小技巧,可能效率不是特别高,但我觉得这可能正是你需要的:
import scipy.spatial.distance as dist
import scipy.stats as ss
# Pearson's correlation coefficients
print dist.squareform(dist.pdist(data, lambda x, y: ss.pearsonr(x, y)[0]))
# p-values
print dist.squareform(dist.pdist(data, lambda x, y: ss.pearsonr(x, y)[1]))
Scipy的pdist是一个非常有用的函数,主要用于计算n维空间中观察值之间的成对距离。
这个函数允许用户定义自己的“距离度量”,这意味着你可以用它来进行任何类型的成对操作。结果会以压缩的距离矩阵形式返回,你可以使用Scipy的'squareform'函数轻松地将其转换为方阵形式。
最简单的方法可能就是使用 pandas
里的内置方法 .corr
来计算相关系数 r:
In [79]:
import pandas as pd
m=np.random.random((6,6))
df=pd.DataFrame(m)
print df.corr()
0 1 2 3 4 5
0 1.000000 -0.282780 0.455210 -0.377936 -0.850840 0.190545
1 -0.282780 1.000000 -0.747979 -0.461637 0.270770 0.008815
2 0.455210 -0.747979 1.000000 -0.137078 -0.683991 0.557390
3 -0.377936 -0.461637 -0.137078 1.000000 0.511070 -0.801614
4 -0.850840 0.270770 -0.683991 0.511070 1.000000 -0.499247
5 0.190545 0.008815 0.557390 -0.801614 -0.499247 1.000000
如果想用 t 检验来获取 p 值,可以这样做:
In [84]:
n=6
r=df.corr()
t=r*np.sqrt((n-2)/(1-r*r))
import scipy.stats as ss
ss.t.cdf(t, n-2)
Out[84]:
array([[ 1. , 0.2935682 , 0.817826 , 0.23004382, 0.01585695,
0.64117917],
[ 0.2935682 , 1. , 0.04363408, 0.17836685, 0.69811422,
0.50661121],
[ 0.817826 , 0.04363408, 1. , 0.39783538, 0.06700715,
0.8747497 ],
[ 0.23004382, 0.17836685, 0.39783538, 1. , 0.84993082,
0.02756579],
[ 0.01585695, 0.69811422, 0.06700715, 0.84993082, 1. ,
0.15667393],
[ 0.64117917, 0.50661121, 0.8747497 , 0.02756579, 0.15667393,
1. ]])
In [85]:
ss.pearsonr(m[:,0], m[:,1])
Out[85]:
(-0.28277983892175751, 0.58713640696703184)
In [86]:
#be careful about the difference of 1-tail test and 2-tail test:
0.58713640696703184/2
Out[86]:
0.2935682034835159 #the value in ss.t.cdf(t, n-2) [0,1] cell
另外,你也可以直接使用你在问题中提到的 scipy.stats.pearsonr
:
In [95]:
#returns a list of tuples of (r, p, index1, index2)
import itertools
[ss.pearsonr(m[:,i],m[:,j])+(i, j) for i, j in itertools.product(range(n), range(n))]
Out[95]:
[(1.0, 0.0, 0, 0),
(-0.28277983892175751, 0.58713640696703184, 0, 1),
(0.45521036266021014, 0.36434799921123057, 0, 2),
(-0.3779357902414715, 0.46008763115463419, 0, 3),
(-0.85083961671703368, 0.031713908656676448, 0, 4),
(0.19054495489542525, 0.71764166168348287, 0, 5),
(-0.28277983892175751, 0.58713640696703184, 1, 0),
(1.0, 0.0, 1, 1),
#etc, etc
我今天也遇到了同样的问题。
经过半个小时的搜索,我发现numpy/scipy库里没有任何代码能帮我解决这个问题。
于是我自己写了一个corrcoef的版本。
import numpy as np
from scipy.stats import pearsonr, betai
def corrcoef(matrix):
r = np.corrcoef(matrix)
rf = r[np.triu_indices(r.shape[0], 1)]
df = matrix.shape[1] - 2
ts = rf * rf * (df / (1 - rf * rf))
pf = betai(0.5 * df, 0.5, df / (df + ts))
p = np.zeros(shape=r.shape)
p[np.triu_indices(p.shape[0], 1)] = pf
p[np.tril_indices(p.shape[0], -1)] = p.T[np.tril_indices(p.shape[0], -1)]
p[np.diag_indices(p.shape[0])] = np.ones(p.shape[0])
return r, p
def corrcoef_loop(matrix):
rows, cols = matrix.shape[0], matrix.shape[1]
r = np.ones(shape=(rows, rows))
p = np.ones(shape=(rows, rows))
for i in range(rows):
for j in range(i+1, rows):
r_, p_ = pearsonr(matrix[i], matrix[j])
r[i, j] = r[j, i] = r_
p[i, j] = p[j, i] = p_
return r, p
第一个版本使用了np.corrcoef的结果,然后根据相关系数矩阵的上三角值计算p值。
第二个循环版本则是逐行遍历,手动计算皮尔逊相关系数。
def test_corrcoef():
a = np.array([
[1, 2, 3, 4],
[1, 3, 1, 4],
[8, 3, 8, 5],
[2, 3, 2, 1]])
r1, p1 = corrcoef(a)
r2, p2 = corrcoef_loop(a)
assert np.allclose(r1, r2)
assert np.allclose(p1, p2)
测试通过了,它们的结果是一样的。
def test_timing():
import time
a = np.random.randn(100, 2500)
def timing(func, *args, **kwargs):
t0 = time.time()
loops = 10
for _ in range(loops):
func(*args, **kwargs)
print('{} takes {} seconds loops={}'.format(
func.__name__, time.time() - t0, loops))
timing(corrcoef, a)
timing(corrcoef_loop, a)
if __name__ == '__main__':
test_corrcoef()
test_timing()
在我的Macbook上测试100x2500的矩阵性能:
corrcoef耗时0.06608104705810547秒,循环次数=10
corrcoef_loop耗时7.585600137710571秒,循环次数=10