是否有方法为1D数组或列表实现sklearn隔离林我遇到的所有例子都是二维或二维以上的数据。
我现在已经开发了一个具有三个特性的模型,下面是截取的示例代码

# dataframe of three columns
df_data = datafr[['col_A', 'col_B', 'col_C']]
w_train = page_data[:700]
w_test = page_data[700:-2]

from sklearn.ensemble import IsolationForest
# fit the model
clf = IsolationForest(max_samples='auto')
clf.fit(w_train)

#testing it using test set
y_pred_test = clf.predict(w_test)

我主要依赖的参考资料:http://scikit-learn.org/stable/auto_examples/ensemble/plot_isolation_forest.html#sphx-glr-auto-examples-ensemble-plot-isolation-forest-py
df_数据是一个包含三列的数据帧我非常希望在一维或列表数据中找到异常值。
另一个问题是如何优化隔离林模型方法之一是增加污染值,减少误报但是如何使用其他参数,如n_估计、max_样本、max_特征、versbose等。。

最佳答案

对1D数组或列表应用隔离林是没有意义的。这是因为在这种情况下,它只是一个从特征到目标的一对一映射。
您可以阅读the official documentation以更好地了解不同的参数有助于
污染
数据集的污染量,即数据集中异常值的比例用于在拟合时定义决策函数的阈值。
尝试在[0,0.5]范围内对不同的值进行实验,看看哪一个值给出的结果最好
最大特点
从X中提取的特征数来训练每个基估计量。
尝试5、6、10等任意整数,并用最终测试数据进行验证
núu估计器尝试多个值,如10、20、50等,以查看哪个最有效。
您还可以使用GridSearchCV自动执行参数估计过程。
尝试使用gridSearchCV对不同的值进行实验,看看哪一个值给出了最好的结果。
试试这个

from sklearn.model_selection import GridSearchCV
from sklearn.metrics import f1_score, make_scorer

my_scoring_func = make_scorer(f1_score)
parameters = {'n_estimators':[10,30,50,80], 'max_features':[0.1, 0.2, 0.3,0.4], 'contamination' : [0.1, 0.2, 0.3]}
iso_for =  IsolationForest(max_samples='auto')
clf = GridSearchCV(iso_for, parameters,  scoring=my_scoring_func)

然后使用clf拟合数据。尽管注意GridSearchCV对于x方法需要botyfit(即列车数据和标签)。
注意:如果您希望在隔离林中使用gridsearchcv,可以阅读this blog post以获取进一步的参考,否则您可以手动尝试使用不同的值并绘制图形以查看结果。

10-06 02:06