我有一种方法,每5分钟运行一次,并从缓存中删除文件
private HashMap<String, CachedFile> cache = new HashMap<>();
@Scheduled(fixedDelay = 300000)
public void deleteFileCache() {
//remove files last accessed > 12h
cache.entrySet().stream().filter(entry -> LocalDateTime.now().minus(12, ChronoUnit.HOURS)
.isAfter(entry.getValue().getLastAccessed())).forEach(entry -> {
File file = new File(tempFolder, entry.getKey());
boolean deleted = file.delete();
});
//remove entries from HashMap
cache.entrySet().removeIf(entry -> LocalDateTime.now().minus(12, ChronoUnit.HOURS)
.isAfter(entry.getValue().getLastAccessed()));
//if little space left remove oldest files
long freeSpace = tempFolder.getFreeSpace();
while (freeSpace < 6000000000L) {
Optional<String> fileToDelete = cache.entrySet().stream()
.min(Comparator.comparing(stringCachedFileEntry -> stringCachedFileEntry.getValue().getLastAccessed()))
.map(Map.Entry::getKey);
fileToDelete.ifPresent(filename -> {
new File(tempFolder, filename).delete();
cache.remove(filename);
});
freeSpace = tempFolder.getFreeSpace();
}
}
此方法每天都会发生大约2-3次的ConcurrentModificationException失败。我看不到为什么,因为该方法只能在同一时间运行一次,并且在从HashMap中删除时不会同时进行迭代。
在第
.min(Comparator.comparing(stringCachedFileEntry ->...
行失败java.util.ConcurrentModificationException: null
at java.util.HashMap$EntrySpliterator.forEachRemaining(HashMap.java:1704) ~[na:1.8.0_212]
at java.util.stream.AbstractPipeline.copyInto(AbstractPipeline.java:482) ~[na:1.8.0_212]
at java.util.stream.AbstractPipeline.wrapAndCopyInto(AbstractPipeline.java:472) ~[na:1.8.0_212]
at java.util.stream.ReduceOps$ReduceOp.evaluateSequential(ReduceOps.java:708) ~[na:1.8.0_212]
at java.util.stream.AbstractPipeline.evaluate(AbstractPipeline.java:234) ~[na:1.8.0_212]
at java.util.stream.ReferencePipeline.reduce(ReferencePipeline.java:479) ~[na:1.8.0_212]
at java.util.stream.ReferencePipeline.min(ReferencePipeline.java:520) ~[na:1.8.0_212]
at ch.my.app.server.FileCacheService.deleteFileCache(FileCacheService.java:113) ~[classes!/:1.0-SNAPSHOT]
最佳答案
在迭代过程中,ConcurrentModificationException
不仅会从迭代集中删除而引发。插入也会导致它。因此,可能的原因是您的Spring引导控制器在不与deleteFileCache
方法同步的情况下写入了映射。
显而易见的解决方案是使用某些线程安全映射代替HashMap
,例如,在一些注释中提到的ConcurrentHashMap
。
例如,Spliterator
的文档说:
…绑定分隔器后,应尽力而为
ConcurrentModificationException
如果存在结构干扰
检测到。 …
从您的堆栈跟踪看来,min
方法使用分隔符。
结构更改包括插入和删除(它们可能不包括替换仅更改值的映射中的映射)。
链接:Documentation of Spliterator