Closed. This question needs debugging details。它当前不接受答案。












想要改善这个问题吗?更新问题,以便将其作为on-topic用于堆栈溢出。

5年前关闭。



Improve this question




我想一键下载整个网站的所有html,css和js文件。我尝试右键单击并查看源代码,但随后我必须复制粘贴每个页面并自己创建文件夹,因此非常繁琐。是否有任何开源软件可以帮助您做到这一点,或者我必须自己编写代码?

最佳答案

wget是您的 friend ,它可以在Windows,Mac和Linux上运行。

wget -r -np -k http://yourtarget.com/even/path/down/if/you/need/it/

-r is recursive
-np (do not follow links to parent directories)
-k to make links in downloaded HTML or CSS point to local files

其他有用的选项:
-nd (no directories): download all files to the current directory
-e robots.off: ignore robots.txt files, do not download robots.txt files
-A png,jpg: accept only files with the extensions png or jpg
-m (mirror): -r --timestamping --level inf --no-remove-listing

关于html - 如何下载网站的整个前端,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/32750276/

10-15 15:44