2024-04-27 04:50:58 发布
网友
我在5x2交叉验证中使用Libsvm对大量数据进行分类,也就是说,我有47k个样本用于训练,47k个样本用于10个不同配置的测试。在
我通常使用Libsvm的脚本轻松.py对数据进行分类,但时间太长了,我已经等了3个多小时了,什么也没有,我还得重复这个过程9次以上!在
有人知道如何在海量数据下更快地使用libsvm吗?C++ LIbSVM函数是否比Python函数运行得更快?在
正如larsmans提到的,libsvm可能无法根据数据的维数和数据点的数量进行很好的缩放。在
C实现可能运行得更快一些,但不会有显著的区别。你有几个选择。在
希望这有帮助!机器学习中最困难的问题之一是处理有时所需的纯量数据。在
在轻松.py是用于训练和评估分类器的脚本。它对支持向量机参数进行元训练网格.py. 在网格.py参数“nr_local_worker”定义线程数。您可能希望增加它(检查处理器负载)。在
LibSVM的训练算法不能扩展到这种类型的数据集;在最坏的情况下需要O(n³)的时间,在典型的情况下大约需要O(n²)。首先要尝试的是正确地缩放数据集;如果它仍然不起作用,请切换到
正如larsmans提到的,libsvm可能无法根据数据的维数和数据点的数量进行很好的缩放。在
C实现可能运行得更快一些,但不会有显著的区别。你有几个选择。在
希望这有帮助!机器学习中最困难的问题之一是处理有时所需的纯量数据。在
在轻松.py是用于训练和评估分类器的脚本。它对支持向量机参数进行元训练网格.py. 在网格.py参数“nr_local_worker”定义线程数。您可能希望增加它(检查处理器负载)。在
LibSVM的训练算法不能扩展到这种类型的数据集;在最坏的情况下需要O(n³)的时间,在典型的情况下大约需要O(n²)。首先要尝试的是正确地缩放数据集;如果它仍然不起作用,请切换到
相关问题 更多 >
编程相关推荐