因此,我在具有约120个特征和10,000个观测值的数据帧上运行了sklearn的SVM分类器(线性核,概率为假)。该程序需要几个小时才能运行,并且由于超出计算限制而导致崩溃。只想知道此数据框是否可能太大?
最佳答案
您可以尝试更改算法的参数。
Tips on practical use from the documentation.
您可以尝试使用其他算法,以下是备忘单,可能会对您有所帮助:
关于python - SVM的数据过多?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/38724623/