我一直在从R
到Python
做一些预测建模。我想知道用交叉验证进行超参数优化和将训练好的模型应用于新实例的最佳管道是什么。你知道吗
下面您将看到一个我使用随机林的快速示例。我想知道这是不是可以,你会添加或删除它?你知道吗
#import data sets
train_df = pd.read_csv('../input/train.csv')
test_df = pd.read_csv('../input/test.csv')
#get the predictors only
X_train = train_df.drop(["ID", "target"], axis=1)
y_train = np.log1p(train_df["target"].values)
X_test = test_df.drop(["ID"], axis=1)
#grid to do the random search
from sklearn.model_selection import RandomizedSearchCV
n_estimators = [int(x) for x in np.linspace(start = 200, stop = 2000, num = 10)]
max_features = ['auto', 'sqrt']
max_depth = [int(x) for x in np.linspace(10, 110, num = 11)]
max_depth.append(None)
min_samples_split = [2, 5, 10]
min_samples_leaf = [1, 2, 4]
bootstrap = [True, False]
# Create the random grid
random_grid = {'n_estimators': n_estimators,
'max_features': max_features,
'max_depth': max_depth,
'min_samples_split': min_samples_split,
'min_samples_leaf': min_samples_leaf,
'bootstrap': bootstrap}
#Create the model to tune
rf = RandomForestRegressor()
rf_random= RandomizedSearchCV(estimator = rf, param_distributions = random_grid, n_iter = 100, cv = 10, verbose=2, random_state=42, n_jobs =10)
#fit the random search model
rf_random.fit(X_train, y_train)
#get the best estimator
best_random = rf_random.best_estimator_
# train again with the best parameters on the whole training data?
best_random.fit(X_train,y_train)
#apply the best predictor to the test set
pred_test_rf = np.expm1(best_random.predict(X_test))
.best_estimator_
是否用网格搜索中找到的最佳参数实例化模型?
如果是这样的话,我是否需要用全部的训练数据重新训练一次(就像我上面所做的那样),还是已经重新训练过了?
我想知道这种方法是否可行,或者使用sklearn在python中实现这一点的一些最佳实践是什么。
1)是的,它是由
best_params_
从rf_random
开始的估计器2)没有,它已经对整个数据进行了培训,不需要做
best_random.fit(X_train,y_train)
RandomizedSearchCV有一个参数
'refit'
,默认为True
:3)你的方法似乎还可以。这是标准方法。其他事情可能取决于各种事情,如数据类型、数据大小、使用的算法(估计器)、探索可能性的时间等,但这部分最适合于https://stats.stackexchange.com。你知道吗
相关问题 更多 >
编程相关推荐