Python内核岭回归:如何知道特征对特征选择的重要性?

2024-05-28 20:54:25 发布

您现在位置:Python中文网/ 问答频道 /正文

我使用几个回归器来训练和测试python中的数据。在

虽然sklearn库中的回归函数大多具有特征选择的函数feature-importances,但是核岭回归函数中没有feature-importances-unu函数。在

当使用核岭回归函数时,人们如何看待每个特性的重要性? 我已经阅读了文档,但没有相关信息。在

以防万一 我的代码:

from sklearn.kernel_ridge import KernelRidge

kr1 = KernelRidge(kernel='rbf', alpha=1.0, gamma=0.01)
kr1.fit(X_train, y_train)
y_kr1 = kr1.predict(X_test)
print("Mean squared error: %.2f" % np.mean((y_kr1 - y_test) ** 2))

# Explained variance score: 1 is perfect prediction
print('Variance score: %.5f' % kr1.score(X_test, y_test))

当我试过的时候

^{pr2}$

错误:

'KernelRidge' object has no attribute 'feature_importances_'

你的帮助将不胜感激。在


Tags: 数据函数testtrain特性sklearnkernelfeature

热门问题