我有一个已经过一些数据集训练的神经网络。假设数据集最初有1万个数据点,现在又添加了100个数据点。我的神经网络有没有一种方法可以学习整个(更新的)数据集而无需从头开始训练?此外,灾难性干扰在这里适用吗?我知道灾难性干扰在NN尝试学习“新信息”时适用,但我不确定“更新(由于插入)信息”是否算作“新信息”。

最佳答案

确实,不幸的是,灾难性干扰(或遗忘)适用于您的情况。
但是深度学习有一个分支专注于该问题,称为Continual Learning

07-24 09:52
查看更多