folderclone原理是创建N个团队盘内容管理员,每个管理员拥有750GB,这样每天就可以以750GB*N的拷贝大小,完美突破750GB/天的限制。

教程是下面的链接
https://github.com/Spazzlo/folderclone
https://blackpearl.biz/threads/7408/
https://blackpearl.biz/threads/7892/

自动生成并添加成员。拷贝速度比Copy, URL to Google Drive?快。

支持
GD to TD
TD to GD
TD to TD
间相互转存

Copy, URL to Google Drive?不能转存到团队盘且每天限制750GB

rclone需要走双倍大小流量

演示地址
https://gd168team003.tab.workers.dev/
北京网友:厉害
陕西网友:留名标记。
内蒙古网友:一直用的Copy, URL to Google Drive。学习了
云南网友:之前都不限流量的,后来被撸怕了设了日750G,这回可能要翻车了
四川网友:战略马克
陕西网友:My
山西网友:mjj太流弊了
四川网友:一定要是内容管理员吗 最高权限的管理员能不能突破750
河南网友:标记
江苏网友:标记
福建网友:6啊
贵州网友:如果所有人都是最高权限的管理员 不能叠加750吗?一定要是一个管理员+其余内容管理员?
广西网友:有几个疑问,需要楼主解惑下
1.这个方式把文件存到了不同的团队盘?合并还是要750G限制?
2.需要不同的管理员账号以及token?
3.源盘(source folder)有每日下载限制吗?也就是rclone copy遇见的403 The download quota for this file has been exceeded
湖北网友:自动添加的成员都是内容管理员,没必要手动去提权
江苏网友:1. 没有限制
2.  会自动添加成员并生成配置文件
3.  这个无解
吉林网友:
原理是:你需要存储资源的账号建一个团队盘,然后拉N个谷歌账号到这个团队盘里面,这样你的这个团队盘,每天就可以往里面上传750gxN的数据,一个账号的日上传量为10T,也就是说,你要转移数据的源盘日上传量为10T,把你要转移数据的源网盘也拉进来,这是重点,这样,你就疯狂的往你的团队盘传数据吧,一个小号的750G用完了之后,再切换到另一个账号继续传。你的口子足够大的话,一天能传满10T数据,数据传完之后,再将数据一键移动到你的目标盘里面就行了,移动只需几秒而已
湖南网友:楼主论坛还要注册才能看,自己域名邮箱不给注册,@live.in也不给。不看了
新疆网友:用g家的邮箱注册没问题
青海网友:你这个解释清晰了

明白如何操作了,就是源盘的403限制太恶心,我24小时不停都抢不到~
江苏网友:你这个解释清晰了

明白如何操作了,就是源盘的403限制太恶心,我24小时不停都抢不到~
陕西网友:楼主你用的是什么网盘,这么快?Google Drive+DirectoryLister ,为什么我的播放好慢
新疆网友:
我一直用的mix文件管理器转,很方便啊,没那么麻烦
河北网友:插个眼
辽宁网友:大佬这速度可以啊····也是那个goindex 加 work么??
台湾网友:大佬分享一下gd地址 pm
福建网友:大佬,我也下了一个,这个软件我咋没看到添加云盘的选项
河北网友:https://gd168team003.tab.workers.dev  大佬你这是什么网盘 来个教程呗 这么快
广西网友:mark
新疆网友:mark
澳门网友:已搭建使用,速度也太快了吧!
浙江网友:大佬的演示站好多内容啊,能不能给个备份啊。好像放进自己的gd里面。
四川网友:亲试多账号 rclone 到 team drive,没有这个 10T 的限制
江苏网友:大佬,求内容分享 [email protected]
河北网友:又有高级玩意啊,马克先
云南网友:里面的内容不错

西藏网友:刚试了而下,这真踏马是个神器啊
台湾网友:请问,我gd怎么批量抓取你的内容?哈哈哈哈
浙江网友:大佬周杰伦 和周星驰 漫威 分享一下啊
北京网友:大佬周杰伦 和周星驰 漫威 分享一下啊
青海网友:mark

01-23 21:31