为了安全起见,我需要使用srm(secure delete)而不是rm来删除一些文件:http://en.wikipedia.org/wiki/Srm_%28Unix%29
我现在已经设置了srm,可以在需要删除的任何数据上运行3次传递。我遇到的问题是srm在大量文件上运行非常缓慢。例如,有一个150目录我试图删除,我发现它只删除了10GB超过一周。
我知道srm在运行多个小文件时会很慢,但目录深度也很重要吗?对于我每周需要删除的大多数数据,实际的文件本身都嵌套在不同的深层子目录中。如果我在运行srm之前展开目录结构会有帮助吗?
以下是我正在考虑的两个解决方案(可能两者都有),但我不知道它们能提供多少帮助:
在运行srm之前展平所有目录结构。这样,所有需要清除的文件都在同一个目标目录中。
在运行srm之前归档整个目录。这样,目标文件将是一个大tar.gz文件。压缩数据可能需要一段时间,但不会像srm那样长。
有人对我能做什么有其他建议吗?其他一些人也使用了shred,但结果是相似的,我们最终切换到srm。

最佳答案

不太了解srm,但可能值得一试:

find $mydir -type f -exec srm {} \;
find $mydir -type d -exec srm {} \;

关于linux - 需要在大量文件上运行srm的想法,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/17959695/

10-13 02:50