我正在寻找一种在sklearn中网格搜索超参数的方法,而不使用K-fold验证。一、 我希望我的网格在特定的数据集(下面的示例中是X1,y1)上进行训练,并在特定的保留数据集(下面的示例中是X2,y2)上验证自己。在
X1,y2=列车数据
X2,y2=验证数据
clf_ = SVC(kernel='rbf',cache_size=1000)
Cs = [1,10.0,50,100.0,]
Gammas = [ 0.4,0.42,0.44,0.46,0.48,0.5,0.52,0.54,0.56]
clf = GridSearchCV(clf_,dict(C=Cs,gamma=Gammas),
cv=???, # validate on X2,y2
n_jobs=8,verbose=10)
clf.fit(X1, y1)
n_jobs>;1没有任何意义。如果n_jobs=-1,则表示处理将使用计算机上的所有核心。如果是1,则只使用一个核心。
如果cv=5,它将为每个迭代运行五次交叉验证。
在您的例子中,总的迭代次数是9(Cs的大小)*5(gammas的大小)*5(CV的值)
这将是非常耗时的,特别是对于支持向量机,我建议您使用RandomSearchCV,它允许您给出您希望模型随机选择的迭代次数。在
使用
hypopt
Python包(pip install hypopt
)。这是一个专业的软件包,专门为参数优化和验证集创建。它可以与任何现成的scikit学习模型一起工作,也可以与Tensorflow、PyTorch、Caffe2等一起使用。在相关问题 更多 >
编程相关推荐