微分协整分析的多信息估计器
midasML的Python项目详细描述
#midas
此存储库包含实现熵和互信息的各种估计器的python代码。
特别是,可以使用renyi multi information和tsallis multi information估计器。
quickstart
使用“pip”从python包索引安装“midas”,通过
``bash
pip安装midasml
```
您可以从github的github存储库中使用
```bash
$git clone https://github.com/sheffieldlml/midas
```
>
``bash
``bash
$python setup.py install
```
````
例如
>要测试‘midas`` midas`,您可以使用下面的示例。
>创建指定某些变量之间相关性的玩具数据集。
``python
从midas导入numpy作为np
。估计器从midas导入renyimutualinformationdiversity,midas
从midas.model评估导入置换测试评分组
从midas.utils导入样本生成
np.random.seed(30)
n个样本,n个dim=30,20
rho_s=[.95,.9,.8,0,0]
x,y,特征名称,组=样本生成。使组联合(n_samples,n_dim,rho_s=rho_s)
Estimator=renyimutualinformation散度(α=0.99,k=3,n_iter=20)
结果=置换检验组(midas(Estimator),x,y,组,n_jobs=-1)
````
前三组特征在一半的样本中相对于另一半有差异地共同调节,而其他特征组则没有(即,在两种情况下,它们的共同调节是相同的。)
因此,我们可以使用'midas'类,使用'renyimutualinformationdiversion'分析不同类别样本的共同调节。
`result'是一个'pandas.dataframe',其中包含结果摘要,which is something like
| | score | perm_scores | p-value | group |
|-----| ------------- |:-------------:| -----:|:-----|
0 | 0.614204 | [0.119599699041, 0.17002017399, 0.000642361597...| 0.009901| [0, 1, 2, 3]
1 | 1.177062 |[0.00106705500132, 0.0115119749325, 0.00023392...| 0.009901 |[4, 5, 6, [0.0,0.0410519694311,0.0041796666412452,0.007…[0.029703,[8,9,10,11]<0.0 0.010378,[0.00187252539953604,0.00757194385644,0.0002593,[0.010378,[0.010378,[0.001010378,[0.010378,[0.010378,[0.01037378,[0.00187255353953604,0.001877194385644,0.0002593,[0.0002593,[0.445593,[0.0.0.44555,[12,13,14,14,15]
>4>0.0;[0.00307271647955,0.0,0.0129193052203,0.010…1.000000[16,17,18,19]
前三个结果应该有一个高得分和一个低p值,因为前三个组在设计上是有差异的共同调节(如前所述,通过“rho_s”数组)。因此,如上例所示,该方法能够正确地处理两类样本中差异共同调节的变量组。
此存储库包含实现熵和互信息的各种估计器的python代码。
特别是,可以使用renyi multi information和tsallis multi information估计器。
quickstart
使用“pip”从python包索引安装“midas”,通过
``bash
pip安装midasml
```
您可以从github的github存储库中使用
```bash
$git clone https://github.com/sheffieldlml/midas
```
>
``bash
``bash
$python setup.py install
```
````
例如
>要测试‘midas`` midas`,您可以使用下面的示例。
>创建指定某些变量之间相关性的玩具数据集。
``python
从midas导入numpy作为np
。估计器从midas导入renyimutualinformationdiversity,midas
从midas.model评估导入置换测试评分组
从midas.utils导入样本生成
np.random.seed(30)
n个样本,n个dim=30,20
rho_s=[.95,.9,.8,0,0]
x,y,特征名称,组=样本生成。使组联合(n_samples,n_dim,rho_s=rho_s)
Estimator=renyimutualinformation散度(α=0.99,k=3,n_iter=20)
结果=置换检验组(midas(Estimator),x,y,组,n_jobs=-1)
````
前三组特征在一半的样本中相对于另一半有差异地共同调节,而其他特征组则没有(即,在两种情况下,它们的共同调节是相同的。)
因此,我们可以使用'midas'类,使用'renyimutualinformationdiversion'分析不同类别样本的共同调节。
`result'是一个'pandas.dataframe',其中包含结果摘要,which is something like
| | score | perm_scores | p-value | group |
|-----| ------------- |:-------------:| -----:|:-----|
0 | 0.614204 | [0.119599699041, 0.17002017399, 0.000642361597...| 0.009901| [0, 1, 2, 3]
1 | 1.177062 |[0.00106705500132, 0.0115119749325, 0.00023392...| 0.009901 |[4, 5, 6, [0.0,0.0410519694311,0.0041796666412452,0.007…[0.029703,[8,9,10,11]<0.0 0.010378,[0.00187252539953604,0.00757194385644,0.0002593,[0.010378,[0.010378,[0.001010378,[0.010378,[0.010378,[0.01037378,[0.00187255353953604,0.001877194385644,0.0002593,[0.0002593,[0.445593,[0.0.0.44555,[12,13,14,14,15]
>4>0.0;[0.00307271647955,0.0,0.0129193052203,0.010…1.000000[16,17,18,19]
前三个结果应该有一个高得分和一个低p值,因为前三个组在设计上是有差异的共同调节(如前所述,通过“rho_s”数组)。因此,如上例所示,该方法能够正确地处理两类样本中差异共同调节的变量组。