本文介绍了使用异常数量的读/写事务RCLONE到Azure(即使没有引入新数据)的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我让RCLONE在本地NAS(运行ZFS文件存储的FreeNAS FreeBSD服务器)上每两周运行一次,以将NAS媒体文件与Azure Blob文件存储同步。



RCLONE对Azure Blob / MD5有原生支持:https://rclone.org/azureblob/

I have RCLONE running bi-weekly on a local NAS (FreeNAS FreeBSD server running ZFS file storage) to sync the NAS media files with an Azure Blob file store.

RCLONE has native support for Azure Blob/MD5: https://rclone.org/azureblob/

但是,每次启动同步时,我都会得到一个即使我没有上传任何新内容,Blob中的读/写使用量也会大幅增加。

However, every time I initiate a sync, I get a huge spike in read/write usage in the Blob even if I am not uploading any new.

假设RCLONE应该读取Azure MD5文件哈希,这应该导致极少数/小读/写。



关于如何调查此事的任何想法?

Hypothetically, RCLONE should be reading the Azure MD5 file hash which should result in very few/small read/writes.

Any ideas on how to investigate this?




推荐答案


这篇关于使用异常数量的读/写事务RCLONE到Azure(即使没有引入新数据)的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

10-26 21:15