我用这段代码来计算这个值的高斯核密度
from random import randint
x_grid=[]
for i in range(1000):
x_grid.append(randint(0,4))
print (x_grid)
这是计算高斯核密度的代码
^{pr2}$网格中的所有值都在0到4之间。如果我收到一个新值5,我想计算该值与平均值的差异,并为其分配一个介于0和1之间的分数。(设置阈值)
So if I receive as a new value 5 its score must be close to 0.90, while if I receive as a new value 500 its score must be close to 0.0.
我怎么能做到呢?我计算高斯核密度的函数是正确的还是有更好的方法/库来实现?在
*更新* 我在报纸上读到一个例子。 洗衣机的重量一般为100公斤。通常供应商使用千克单位也指其容量(例如9千克)。对于一个人来说很容易理解9gk是洗衣机的容量而不是总重量。我们可以在没有深入的语言理解的情况下“伪造”这种形式的智力 为每种模型的训练数据中的值分布建模 属性。在
对于给定的属性a(例如洗衣机的重量),让Va={va1,va2。van}(| Va |=n)是与产品相对应的属性a的值集 在训练数据中。如果我直觉上发现了一个新的值,它“接近”到 分布估计从)Va,那么我们应该更有信心将这个值赋给a(洗衣机的重量示例)。在
一种方法是通过 新值v不同于Va中值的平均值,但更好的方法是在Va上建模(高斯)核密度,然后将新值v的支持表示为该点的密度:
{1美元^
式中,σ^(2)ak是k次高斯的方差,Z是 确定S(c.S.v,Va)∈[0,1]的常数。如何使用statsmodels库在Python中获得它?在
*更新2* 数据示例。。。但我认为这不是很重要。。。 由此代码生成。。。在
from random import randint
x_grid=[]
for i in range(1000):
x_grid.append(randint(1,3))
print (x_grid)
2、2、2、1、2、2、2、3、1、1、1、1、2、2、2、1、1、1、3、3、1、2、2、3、1、1、2、1、2、1、2、1、1、2、1、1、1、1、1、1、1、1、1、1、1、1、1、2、2、3、3、2、2、2、2、1、2、1、2、1、2、1、2、2、2、2、2、2、2、2、2、3、3、3、3、3、3、3、2、2、1、3、3、3、2、1、3、3、3、2、1、3、3、2、1、3、3、2、1、3、3 2,1,3,2,3,3,1,2,3,2,1,2,3,2,1,1,2,3,2,1,2,2,2,3,3,1,1,1,3,2,1,1,3,3,1、1、2、2、2、1、3、2、3、3、1、3、3、1、3、1、1、2、2、2、1、1、1、2、2、2、3、3、1、1、3、3、1、3、1、3、1、2、2、2、2、2、2、2、2、2、3、1、3、1、3、3、3、3、1、1、1、3、3、2、3、2、3、2、3、3、3、3、3、2、1、1、3、3、3、1、1、3、2、2、2、2、2、2、2、2、2、2、2、2、2、1、1、3、3、3、3、3、3、3、3 3,1,2,1,1,2,2,2,3,3,3,2,2,2,2,1,1,1,3,3,3,3,3,1,1,1,1,1,2,1,2,1,2,1,2,1,2,1、1、2、2、3、1、3、3、2、2、2、2、2、2、2、2、2、1、1、2、3、3、1、1、1、1、3、3、2、3、3、3、2、2、2、2、2、2、2、1、2、2、1、1、1、1、1、1、1、1、1、1、1、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、2、2、2、2、2、2、2、2、1、3、3、3、3、3、3、3、3、3、3、3、3、3 2,1,3,3,3,3,3,1,2,2,1,1,3,2,3,1,1,2,3,2,1,1,3,3,1,1,2,3,3,2,3,3,3,3,3,3,3,3,3、3、3、3、3、2、1、1、2、3、3、3、1、1、1、1、1、1、1、2、2、2、2、2、1、1、1、2、2、1、1、2、1、2、3、1、1、2、3、1、1、2、3、1、1、2、3、1、3、3、3、3、3、3、3、2、1、1、1、1、2、2、2、3、3、3、3、3、3、3、3、2、1、2、2、2、2、2、2、2、3、1、1、2、2、3、1、1、2、1、2、2、2、2、3、1、1、1、1、2、2 1、1、3、2、1、3、3、2、1、1、3、1、2、2、3、1、1、3、1、3、1、2、1、2、1、3、2、1、1、1、3、1、3、1、3、2、1、3、2、1、3、2,2、2、2、2、2、2、2、1、3、3、2、3、3、2、3、2、1、3、3、2、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、1、1、1、3、3、3、3、3、3、2、3、2、3、2、2、3、3、3、2、2、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、1、1、1、1、2、2、2、1、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3 2、2、1、3、1、2、2、2、3、3、1、2、3、3、1、1、2、2、3、2、2、1、3、3、3、3、3、1、3、3、3、1、3、2、1、3、2、1、1、1,3、3、3、3、3、3、2、2、2、2、1、1、1、1、2、3、3、3、3、3、3、2、2、1、1、1、1、1、1、1、3、3、3、3、2、3、3、2、2、2、2、2、3、2、2、2、3、2、2、2、2、2、3、3、3、3、3、3、3、3、3、3、3、3、2、1、1、1、1、3、3、3、3、3、2、2、1、2、2、2、2、2、2、2、2、2、2、3、3、3、3、3、3、3、3、3、3、3、3、3、3 2,3,2,1、2、1、1、1、1、3、3、3、2、2、3、3、3、1、3、3、3、3、2、1、1、3、3、1、3、2、2、2、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、3、1、1、3、3、3、1、3、3、2、3、2、1、1、1、3、3、3、2、3、3、3、2、2、3、3、3、1、2、2、2、2、2、2、2、1、1、2、2、2、1、1、1、1、2、2、1、1、1、1、1、2、2 1,1,3,1,3,1,3,2,3,1,3,2,3,3,1,2,2,2,1,2,2,2,1,2,2,3,2,2,3,2,2,3,1,1,3,3,1,1,3,3,1,1、1、2、2、1、2、1、3、2、2、1、3、3、1、3、3、3、1、1、1、1、1、1、1、1、3、2、2、1、2、3、3、3、1、1、1、1、1、1、1、3、3、1、1、3、3、1、1、3、1、3、3、3、3、3、3、3、3、3、1、1、2、3、3、1、2、2、1、1、1、2、2、1、1、2、2、1、1、1、2、2、1、1、1、1、1、1、1、1、1、1、1、1、1、1、1、1、1、1、1、1 1、3、2、2、3、2、2、3、3、1、1、2、3、1、1、2、2、3、1、2、1、1、3、1、3、1、3、1、3、3、3、3、3、3、3、3、3、3、3,2、2、2、2、1、1、1、1、3、3、1、2、1、2、1、1、3、3、3、2、2、2、1、2、2、2、2、2、3、3、3、1、1、1、1、3、1、3、3、3、3、3、3、3、3、1、1、1、1、1、2、2、3、3、3、3、2、2、3、2、2、1、2、1、2、1、2、1、2、2、2、2、2、2、2、2、2、2、2、2、2、2、2、3、3、3、2、2、2、2、2、2、2、2、2、2、2、2、2、2、2 2,3,1,2,2,1,1,2,3,3,1,3,3,1,3,3,1,3,2,2,1,1,2,1,3,1,1,1,1,2,3,3,2,3,1,3]
这个阵列代表了市场上新智能手机的ram。。。通常它们有1,2,3gb的内存。在
这就是核密度
{1美元^
***更新
我用这个值尝试代码
[1024, 1, 1024, 1000, 1024, 128, 1536, 16, 192, 2048, 2000, 2048, 24, 250, 256, 278, 288, 290, 3072, 3, 3000, 3072, 32, 384, 4096, 4, 4096, 448, 45, 512, 576, 64, 768, 8, 96]
值都是以mb为单位。。。你觉得这行得通吗?我认为我必须设定一个门槛
100% cdfv kdev
1 42 0.210097 0.499734
1024 96 0.479597 0.499983
5000 0 0.000359 0.498885
2048 36 0.181609 0.499700
3048 8 0.040299 0.499424
*更新3*
[256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 512, 512, 512, 256, 256, 256, 512, 512, 512, 128, 128, 128, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 2048, 2048, 2048, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 128, 128, 128, 512, 512, 512, 256, 256, 256, 256, 256, 256, 1024, 1024, 1024, 512, 512, 512, 128, 128, 128, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 4, 4, 4, 3, 3, 3, 24, 24, 24, 8, 8, 8, 16, 16, 16, 16, 16, 16, 256, 256, 256, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 512, 512, 512, 512, 512, 512, 256, 256, 256, 256, 256, 256, 256, 256, 256, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 2048, 2048, 2048, 2048, 2048, 2048, 4096, 4096, 4096, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 768, 768, 768, 768, 768, 768, 2048, 2048, 2048, 2048, 2048, 2048, 3072, 3072, 3072, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 1024, 1024, 1024, 512, 512, 512, 256, 256, 256, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 3072, 3072, 3072, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 512, 512, 512, 256, 256, 256, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 512, 512, 512, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 64, 64, 64, 1024, 1024, 1024, 1024, 1024, 1024, 256, 256, 256, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 64, 64, 64, 64, 64, 64, 128, 128, 128, 128, 128, 128, 128, 128, 128, 128, 128, 128, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 128, 128, 128, 576, 576, 576, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 576, 576, 576, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 512, 512, 512, 2048, 2048, 2048, 768, 768, 768, 768, 768, 768, 768, 768, 768, 512, 512, 512, 192, 192, 192, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 384, 384, 384, 448, 448, 448, 576, 576, 576, 384, 384, 384, 288, 288, 288, 768, 768, 768, 384, 384, 384, 288, 288, 288, 64, 64, 64, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 3072, 3072, 3072, 2048, 2048, 2048, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 64, 64, 64, 128, 128, 128, 128, 128, 128, 128, 128, 128, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 256, 256, 256, 768, 768, 768, 768, 768, 768, 768, 768, 768, 256, 256, 256, 192, 192, 192, 256, 256, 256, 64, 64, 64, 256, 256, 256, 192, 192, 192, 128, 128, 128, 256, 256, 256, 192, 192, 192, 288, 288, 288, 288, 288, 288, 288, 288, 288, 288, 288, 288, 128, 128, 128, 128, 128, 128, 384, 384, 384, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 3072, 3072, 3072, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 3072, 3072, 3072, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 32, 32, 32, 768, 768, 768, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 3072, 3072, 3072, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 256, 512, 512, 512, 512, 512, 512, 256, 256, 256, 512, 512, 512, 512, 512, 512, 512, 512, 512, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 64, 128, 128, 128, 128, 128, 128, 1024, 1024, 1024, 1024, 1024, 1024, 128, 128, 128, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 3072, 3072, 3072, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 256, 256, 256, 256, 256, 256, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 3072, 3072, 3072, 2048, 2048, 2048, 384, 384, 384, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 3072, 3072, 3072, 3072, 3072, 3072, 3072, 3072, 3072, 128, 128, 128, 256, 256, 256, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 768, 768, 768, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 128, 128, 128, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 64, 64, 64, 64, 64, 64, 256, 256, 256, 512, 512, 512, 512, 512, 512, 512, 512, 512, 16, 16, 16, 3072, 3072, 3072, 3072, 3072, 3072, 256, 256, 256, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 512, 512, 512, 32, 32, 32, 1024, 1024, 1024, 1024, 1024, 1024, 256, 256, 256, 256, 256, 256, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 32, 32, 32, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 512, 512, 512, 1, 1, 1, 1024, 1024, 1024, 32, 32, 32, 32, 32, 32, 45, 45, 45, 8, 8, 8, 512, 512, 512, 256, 256, 256, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 16, 16, 16, 4, 4, 4, 4, 4, 4, 4, 4, 4, 16, 16, 16, 16, 16, 16, 16, 16, 16, 64, 64, 64, 8, 8, 8, 8, 8, 8, 8, 8, 8, 64, 64, 64, 64, 64, 64, 256, 256, 256, 64, 64, 64, 64, 64, 64, 512, 512, 512, 512, 512, 512, 512, 512, 512, 32, 32, 32, 32, 32, 32, 32, 32, 32, 128, 128, 128, 128, 128, 128, 128, 128, 128, 32, 32, 32, 128, 128, 128, 64, 64, 64, 64, 64, 64, 16, 16, 16, 256, 256, 256, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 256, 256, 256, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 256, 256, 256, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 256, 256, 256, 256, 256, 256, 1024, 1024, 1024, 1024, 1024, 1024, 256, 256, 256, 3072, 3072, 3072, 3072, 3072, 3072, 128, 128, 128, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 128, 128, 128, 128, 128, 128, 64, 64, 64, 256, 256, 256, 256, 256, 256, 512, 512, 512, 768, 768, 768, 768, 768, 768, 16, 16, 16, 32, 32, 32, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 512, 512, 512, 2048, 2048, 2048, 1024, 1024, 1024, 3072, 3072, 3072, 3072, 3072, 3072, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 3072, 3072, 3072, 3072, 3072, 3072, 3072, 3072, 3072, 3072, 3072, 3072, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 3072, 3072, 3072, 3072, 3072, 3072, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 64, 64, 64, 96, 96, 96, 512, 512, 512, 64, 64, 64, 64, 64, 64, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 3072, 3072, 3072, 3072, 3072, 3072, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 512, 512, 512, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 64, 64, 64, 64, 64, 64, 256, 256, 256, 1024, 1024, 1024, 512, 512, 512, 256, 256, 256, 512, 512, 512, 1024, 1024, 1024, 512, 512, 512, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 512, 512, 512, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 2048, 3072, 3072, 3072, 3072, 3072, 3072, 2048, 2048, 2048, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 1024, 2048, 2048, 2048, 2048, 2048, 2048, 1024, 1024, 1024, 2048, 2048, 2048, 3072, 3072, 3072, 2048, 2048, 2048]
如果我试着把这个数字作为新值
# new values
x = np.asarray([128,512,1024,2048,3072,2800])
3072出错(所有值都以MB为单位)。在
结果是:
100% cdfv kdev
128 26 0.129688 0.499376
512 55 0.275874 0.499671
1024 91 0.454159 0.499936
2048 12 0.062298 0.499150
3072 0 0.001556 0.498364
2800 1 0.004954 0.498573
我不明白为什么会这样。。。3072值在数据中出现了很多时间。。。 这是我数据的柱状图。。。这很奇怪,因为有一些3072和4096的值。在
一些一般性的评论,而不涉及statsmodels的细节。在
statsmodels也有cdf内核,但我不记得它们工作得有多好,我也不认为它有自动选择带宽的功能。在
关于格伦·布的回答,阿里·穆在评论中提到:
随着样本的增长,cdf估计收敛到真实分布比密度估计快得多。为了平衡偏差-方差的权衡,我们应该为cdf核使用一个较小的带宽,这是相对于密度估计而言欠平滑的。估计值应比相应的密度估计值更准确。在
尾部观察数:
如果您在样本中的最大观察值是4,而您想知道cdf在5,那么您的数据中没有关于它的信息。对于只有很少观察值的尾部,非参数估计量(如核分布估计量)的相对方差将较大(是1e-5还是1e-20?)。在
作为核密度或核分布估计的替代方法,我们可以估计尾部的Pareto分布。例如,取最大的10%或20%的观测值并拟合帕累托分布,然后用这个来外推尾密度。 有几个用于powerlaw估计的Python包,可以用于此。在
更新
下面展示了如何使用参数正态分布假设和固定带宽的高斯核密度估计来计算“外向度”。在
只有当样本来自连续分布或可以用连续分布近似时,这才是真正正确的。在这里,我们假设只有3个不同值的样本来自正态分布。 本质上,计算出的cdf值类似于距离度量,而不是离散随机变量的概率。在
这使用kdescipy.stats公司使用固定带宽而不是statsmodels版本。在
我不确定带宽是如何设置在scipy的高斯分布中的,所以,我选择的固定带宽等于
scale
可能是错误的。如果只有三个不同的值,数据中没有足够的信息,我不知道如何选择带宽。默认带宽用于近似正态分布,或者至少是单峰分布。在相关问题 更多 >
编程相关推荐