正在运行带有GridSearchCV的Python-LightGBM

2024-05-13 21:11:01 发布

您现在位置:Python中文网/ 问答频道 /正文

最近,我做了很多实验来比较Python XgBoost和LightGBM。这种LightGBM似乎是一种新的算法,人们说它在速度和精度上都比XGBoost好。

这是LightGBM GitHub。 这里是LightGBM python API documents,您可以在这里找到可以调用的python函数。它可以直接从LightGBM模型调用,也可以由LightGBM scikit learn调用。

这是我用的XGBoost Python API。如您所见,它的数据结构与上面的LightGBM python API非常相似。

以下是我尝试过的:

  1. 如果在XGBoost和LightGBM中都使用train()方法,那么是的,LightGBM工作得更快,精度更高。但这种方法,没有交叉验证。
  2. 如果您在这两种算法中都尝试cv()方法,则它用于交叉验证。但是,我没有找到使用它返回一组最佳参数的方法。
  3. 如果您尝试使用LGBMClassifier和xgbclassifier学习scikit GridSearchCV()。它适用于XGBClassifier,但对于LGBClassier,它将永远运行。

下面是我在两个分类器中使用GridSearchCV()时的代码示例:

带有GridSearchCV的XGBClassifier

param_set = {
 'n_estimators':[50, 100, 500, 1000]
}
gsearch = GridSearchCV(estimator = XGBClassifier( learning_rate =0.1, 
n_estimators=100, max_depth=5,
min_child_weight=1, gamma=0, subsample=0.8, colsample_bytree=0.8, 
nthread=7,
objective= 'binary:logistic', scale_pos_weight=1, seed=410), 
param_grid = param_set, scoring='roc_auc',n_jobs=7,iid=False, cv=10)

xgb_model2 = gsearch.fit(features_train, label_train)
xgb_model2.grid_scores_, xgb_model2.best_params_, xgb_model2.best_score_

这对XGBoost非常有效,而且只需几秒钟。

带有GridSearchCV的LightGBM

param_set = {
 'n_estimators':[20, 50]
}

gsearch = GridSearchCV(estimator = LGBMClassifier( boosting_type='gbdt', num_leaves=30, max_depth=5, learning_rate=0.1, n_estimators=50, max_bin=225, 
 subsample_for_bin=0.8, objective=None, min_split_gain=0, 
 min_child_weight=5, 
 min_child_samples=10, subsample=1, subsample_freq=1, 
colsample_bytree=1, 
reg_alpha=1, reg_lambda=0, seed=410, nthread=7, silent=True), 
param_grid = param_set, scoring='roc_auc',n_jobs=7,iid=False, cv=10)

lgb_model2 = gsearch.fit(features_train, label_train)
lgb_model2.grid_scores_, lgb_model2.best_params_, lgb_model2.best_score_

然而,通过对LightGBM使用这种方法,它今天已经运行了一上午,仍然没有生成任何结果。

我使用的是同一个数据集,一个数据集包含30000条记录。

我有两个问题:

  1. 如果我们只使用cv()方法,是否还有优化参数集的方法?
  2. 你知道为什么GridSearchCV()不能很好地与LightGBM一起工作吗?我想知道这是否只发生在我身上其他人身上?

Tags: 方法paramtrainmincvgridsetestimators
2条回答

最初的问题是由于lightgbmGridSearchCV启动的线程太多(即机器上的线程太多)。如果是产品(或金额?这取决于这些功能的GridSearchCV是如何实现的,然后它将运行。如果有太多的线程发生冲突,并且lightgbm由于一些我不清楚的原因而停止执行,但是开发人员知道原因。

尝试使用n_jobs = 1并查看它是否有效。

一般来说,如果您使用n_jobs = -1n_jobs > 1,那么您应该使用if __name__=='__main__':来保护您的脚本:

简单示例:

import ...

if __name__=='__main__':

    data= pd.read_csv('Prior Decompo2.csv', header=None)
    X, y = data.iloc[0:, 0:26].values, data.iloc[0:,26].values
    param_grid = {'C' : [0.01, 0.1, 1, 10], 'kernel': ('rbf', 'linear')}
    classifier = SVC()
    grid_search = GridSearchCV(estimator=classifier, param_grid=param_grid, scoring='accuracy', n_jobs=-1, verbose=42)
    grid_search.fit(X,y)

最后,你能试着用n_jobs = -1来运行你的代码吗,并且像我解释的那样包含if __name__=='__main__':,看看它是否有效?

相关问题 更多 >