我有一组从受试者记录的数据集,因为他们执行某些特定的认知任务。数据由16个通道组成,每个通道有多个采样点,我想根据正在执行的认知任务对数据进行分类(所有内容均已标记)。
问题是我没有大量的数据(每节约60次试验,每项认知任务30次),我有2次。我正在尝试训练线性判别分析(LDA)分类器对该数据进行分类。稍后将实时使用分类器,以对每个数量的样本提供某种形式的输出。
我使用5倍交叉验证来衡量分类器的泛化误差。问题是,当我多次运行此5倍交叉验证时,得到的结果根本不是恒定的。取而代之的是,总体准确度存在显着差异(例如,前5次交叉验证可能会产生80%的平均准确度,第二次会产生65%的准确度,第三次会产生72%的平均值等)。这正常吗?如果没有,可能是什么原因?
最佳答案
听起来您可能有一些不良数据或分类器过拟合。您可以执行“留一法”交叉验证并记录结果。它可以帮助查找可能使结果有偏差的数据。
关于machine-learning - 交叉验证结果不一致,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/15253472/