V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
66beta
V2EX  ›  问与答

如何打包某个网站的某个目录内所有页面?

  •  
  •   66beta · 2013-01-30 15:00:33 +08:00 · 3061 次点击
    这是一个创建于 4117 天前的主题,其中的信息可能已经有所发展或是发生改变。
    有没有这样一个软件,可以把某个网站的特定目录给爬一边,然后down下来打包成单个/多个HTML或者一个PDF?

    比如我要将整本《Learn Python The Hard Way》http://learnpythonthehardway.org/book/ 给down下来,以后可以离线阅读。

    我知道也用过某些个软件可以把整个网站跑一边根据图片/JS/CSS什么分目录下载的,但是效果不是很理想。

    也想过用InstaPaper这种标记阅读类工具,但是这样的话,不如我手工把每个页面开一边保存个PDF算了,作为半个码农,这么低效率的方法是绝对无法接受的!!!
    5 条回复    1970-01-01 08:00:00 +08:00
    hanai
        1
    hanai  
       2013-01-30 15:10:56 +08:00   ❤️ 2
    这样?
    wget -r -p -np -k http://learnpythonthehardway.org/book/
    qiayue
        2
    qiayue  
       2013-01-30 16:15:48 +08:00
    搜索“网站整站下载器”
    Muninn
        3
    Muninn  
       2013-01-30 17:28:46 +08:00 via Android
    在linux下很简单 见一楼 我每次都是到vps上这么干
    66beta
        4
    66beta  
    OP
       2013-01-31 12:04:34 +08:00
    @hanai @Muninn 记得以前在ubuntu下弄过,我再去试试
    FallenMax
        5
    FallenMax  
       2013-01-31 13:21:23 +08:00 via iPhone
    idm 小说下载阅读器
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   5609 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 32ms · UTC 08:30 · PVG 16:30 · LAX 01:30 · JFK 04:30
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.