Fresh WebSuction –  吸取整站到硬盘

28
1 Star2 Stars3 Stars4 Stars5 Stars (1 votes)
Loading...

如前所述,离线浏览是某些二狗的特别需求。Fresh WebSuction 就是 Windows 平台上的免费整站下载软件,说到底,它就是 wget 配了一层界面。@appinn

下载地址:( MB): 官网 | 下载 | 来自小众软件

已有 28 条评论, 我要留言

  1. LC说道:

    某些二狗….

  2. Wolf说道:

    需求不大,占个位先~~~

  3. Sowari说道:

    我去把度娘下载下来;-)

  4. ROM说道:

    我去下股沟

  5. 君临天下说道:

    为什么要下载别人的站点,但是技术博客可以把文章舶来!

  6. Es说道:

    某些二狗..

  7. Jazzywolf说道:

    嗯,二狗流越来越小众了。

  8. 不需要称呼说道:

    我用VisualWget

  9. 蜘蛛抱蛋说道:

    下载一些在线文档很有用,不过我还是习惯手工完成,看多少下多少~~

  10. GXF说道:

    这东西有用么?

  11. 真的金龙说道:

    我一直用Webdup,虽然很久没更新了,
    帮我下了不少成人整站,

  12. 抱鱼睡的猫说道:

    0.0
    喵。。。好用。

  13. skystar说道:

    某些二狗是指我?上次是我问的windows问题的

  14. gerald2008说道:

    我说下度娘会不会把硬盘撑爆?

  15. jes说道:

    我还是喜欢自己写命令行,用wget或者curl批量下。确实下在线文档很方便。有相同需求的可以参考。
    首先,下载windows版的wget,放到system32下面;
    其次,将以下文字存到文本文档,并且另存为.bat文件。
    rem 参数说明:
    rem -r:递归下载
    rem -c:断点续传
    rem -p:–page-requisites 下载显示HTML文件的所有图片递归下载中的包含和不包含(accept/reject)
    rem -k:转换非相对链接为相对链接
    rem -np:不要追溯到父目录
    rem -i:从文件中取得URL;
    rem downloadlist.txt是要下载的链接集合,每行一个链接。
    rem -N:不要重新下载文件除非比本地文件新-nc
    rem –no-check-certificate:不校验https
    wget –no-check-certificate -r -c -p -k -np -N -i downloadlist.txt -o down.log &

    downloadlist.txt 内保存下载链接,比如http://www.my285.com/ysyz/xslm/index.htm

    还支持断点续传,对网络不好的用户较好。以下步骤对有进一步整理下载需求的用户而言。下载的网页有很多广告或者不需要的图片,大家查看下网页代码,用HTML FAR批量替换掉就好了,还支持正则。注意,批量替换前先备份。

  16. cooldesign说道:

    以前不知道在哪下了个下整站的软件不好用,下个这个试试,谢了啊!

  17. 潇洒蔡先生说道:

    大人!我想问.有天朝文版本吗?

  18. louie说道:

    果然是好东西,我想把自己的博客存到本地。

  19. 昨儿个的包子说道:

    能下载百度文库么,省的俺用文库宝怪不习惯的

  20. 夜归人说道:

    是能把对方整个站的源代码包括CSS、JS都下载下来吗?

  21. 探员说道:

    介绍过于简单,没人任何参考价值

  22. littlesujin说道:

    小众真不错。良心网站。我一般找软件都来这里先搜索一下,才敢放心用

有不同想法?说说看