我是有一个URL.txt,里面有很多url,我想下载的时候保持原来的路径不变下载保存到本地
比如有一条URL链接是这样的:
http://www.1234.com/attachments_ … 431d7e980c44456.jpg
下载到本地的目录保持原来路径的结构,所有URL下载到这/home/down/:
/home/down/attachments_4/day_190502/19050222361431d7e980c44456.jpg
Aria2下载的图片只会下载保存到同一个文件夹,在一个文件夹图片存多了对服务器会造成影响
而wget命令的参数 -r 支持递归下载,能够下载并保持原有目录结构,但是下载速度太慢了,没有Aria2快4
大佬们有没有什么好的方案?
小弟在此谢过~
搜索引擎实在找不到答案了。。
安徽网友:Aria2 有 -d 命令…指定保存目录.
如果目录不存在, 自动创建.
自己写个循环. 读取目录路径或者随机生成.
浙江网友:更加简单啊, 正则处理路径, 去除 http://域名, 然后 -d 创建文件夹.
或者 mkdir -p 递归创建二级目录. 然后再 -d 指定
湖北网友:私信发联系方式…只写shell
云南网友:
- #!/bin/sh
- #执行方法: bash test.sh file.txt
- while read line
- do
- dowm_link=$line
- line=`echo $line | sed ‘s/http:\/\///’ | sed ‘s/https:\/\///’`
- file_path=${line#*/}
- echo $file_path
- aria2c $dowm_link -o $file_path
- done < $1
复制代码