我先来介绍一下调查数据。你可以跳过它
调查数据是由调查专家提出的复杂抽样模式形成的。样本可以按州、区或县、地区、地方等对一个国家进行分层。它甚至可以按种族、收入等对人进行分层。一旦创建了地层来解决调查的设计问题,就从这些地层中随机抽取样本。我们对这些样本进行了调查,但由于有些人不喜欢透露他们认为是个人的信息,所以并不是所有的回答都是有效的。为了克服这一点,通常会对地层进行过采样,因此您希望正确有效的响应数量至少等于您所需的样本量。在
当把这些反应放在一起进行分析时,需要对这些反应进行加权,这样分析就可以根据样本来估计整个人群的样子。由于抽样本身非常复杂,而且样本本身是基于其他调查的,因此也存在着调查中的缺点,所以权重不是一个单一的数字。权重有自己的分布。在
如果只想计算数据的中心趋势,比如平均值或中位数,那么最终的权重就足够了。但是,如果没有集中趋势扩散的概念,结果是不完整的。价差是从方差中获得的。对于调查数据,有两个变量在发挥作用,真实的总体方差和由权重引起的方差。这使得方差计算非常复杂,而且容易出错
为了克服方差计算的复杂性,目前有各种各样的渐近方法被广泛应用。其中最受欢迎的是刀切法。Jackknife方法包括删除一部分响应,并重新加权其余响应。因此,一个100阶的折刀将删除1/100的响应,并重新加权剩余的99/100个响应。这将重复100次,每次删除响应的不同1/100部分。完成后,将有一个100刀重(正式称为复制重量)。在
100个重复权重中的每一个,当与总样本权重一样使用时,都将给出一个关于关注的中心趋势的度量。现在,总中心趋势的方差可以从从所有刀切权重得到的中心趋势中计算出来。在
我从总样本权重中计算出总体均值的真实值。我还使用所有的复制权重计算了相同的度量。现在我需要估计方差和协方差,为此,我需要从观测值的平均值中减去观测值。在
在我的例子中,观察值是从重复权重中获得的,平均值是从总权重中获得的。预先打包的协方差函数,如numpy.cov()
计算来自传递的数据数组的平均值。在我的情况下,这会给出不正确的答案。基本上,我需要以下伪代码的矢量化版本:
def cov_var(arr, means):
"""
arr is a matrix of experiments along rows and observations along columns
means is a vector as long as the number of rows in arr
"""
for i in range(len(arr)):
s = 0
for j in range(len(arr)):
for k in range(len(arr[i])):
s += (arr[i][k] - means[i]) * (arr[j][k] - means[j])
这篇文章建议对^{} 中列出的矢量化实现进行改进。除了通常的内务错误检查代码,其关键似乎包含在两行-
改进1
第一个} 扩展
^{pr2}$np.subtract(arr.T, means).T
涉及两个转置和一个函数调用。这可以通过用^{means
的维度并执行减法来实现。现在,这两种方法都将使用broadcasting
,这基本上就是在这里完成的计算,因此我不期望它有任何显著的加速。替代守则将是-运行时测试和验证-
改进2
接下来,
np.dot(arr1, arr1.T)
可以用np.einsum
实现,如下-运行时测试和验证-
经过一番思考和几次测试,我想出了以下简单的代码:
它比较快,完全矢量化。我把这个分享给其他需要它的人。在
如果你认为你做得比我好,请随时发表答案。我很乐意接受它作为答案。在
相关问题 更多 >
编程相关推荐