LinuxSir.cn,穿越时空的Linuxsir!

 找回密码
 注册
搜索
热搜: shell linux mysql
查看: 853|回复: 5

有什么命令可以把一个页面的相关连接都下载下来?

[复制链接]
发表于 2006-12-21 11:40:25 | 显示全部楼层 |阅读模式
我想写一个脚本,在不同的时间测试web服务器打开页面的速度,一个地址的相关连接文件如jpg,html.css,.gif文件等,总之在浏览器地址拦输入时显示的所有东西都下载过来,比如www.tom.com,不知道有什么命令呢?我看了wget 和curl都好象只能下载单个文件的?

谢谢
发表于 2006-12-21 12:59:24 | 显示全部楼层
wget -m www.tom.com
回复 支持 反对

使用道具 举报

发表于 2006-12-21 14:04:21 | 显示全部楼层
-m选项用于对整个网站进行镜像,楼主如果只下载一个页面的话,可以用下面的命令(以sina为例):
wget -p -nd www.sina.com.cn
另外:Apache软件里自带的ab命令可以用来测试Web服务器
回复 支持 反对

使用道具 举报

 楼主| 发表于 2006-12-21 14:54:45 | 显示全部楼层

测了一下,

测了一下,还是不一定能完全成功,不过还是感谢了
回复 支持 反对

使用道具 举报

 楼主| 发表于 2006-12-21 14:56:28 | 显示全部楼层

测了一下,

测了一下,还是不一定能完全成功,不过还是感谢了
回复 支持 反对

使用道具 举报

 楼主| 发表于 2006-12-21 14:56:34 | 显示全部楼层

测了一下,

测了一下,还是不一定能完全成功,不过还是感谢了
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表