我使用几个回归器来训练和测试python中的数据。在
虽然sklearn库中的回归函数大多具有特征选择的函数feature-importances,但是核岭回归函数中没有feature-importances-unu函数。在
当使用核岭回归函数时,人们如何看待每个特性的重要性? 我已经阅读了文档,但没有相关信息。在
以防万一 我的代码:
from sklearn.kernel_ridge import KernelRidge
kr1 = KernelRidge(kernel='rbf', alpha=1.0, gamma=0.01)
kr1.fit(X_train, y_train)
y_kr1 = kr1.predict(X_test)
print("Mean squared error: %.2f" % np.mean((y_kr1 - y_test) ** 2))
# Explained variance score: 1 is perfect prediction
print('Variance score: %.5f' % kr1.score(X_test, y_test))
当我试过的时候
^{pr2}$错误:
'KernelRidge' object has no attribute 'feature_importances_'
你的帮助将不胜感激。在
特征重要性是集成学习方法中的一个概念,例如sklearn.ensemble.RandomForestClassifier;它不是岭回归模型的属性。最接近的对应物是t统计量,不幸的是,您需要手动计算。在
相关问题 更多 >
编程相关推荐