设为首页
收藏本站
用户名
Email
自动登录
找回密码
密码
登录
注册
快捷导航
平台
Portal
论坛
BBS
文库
项目
群组
Group
我的博客
Space
搜索
搜索
热搜:
shell
linux
mysql
本版
用户
LinuxSir.cn,穿越时空的Linuxsir!
»
论坛
›
Linux 综合讨论区 —— LinuxSir.cn
›
shell进阶应用、shell编程
›
有什么命令可以把一个页面的相关连接都下载下来? ...
返回列表
查看:
853
|
回复:
5
有什么命令可以把一个页面的相关连接都下载下来?
[复制链接]
sg_gaoshou
sg_gaoshou
当前离线
积分
7
IP卡
狗仔卡
发表于 2006-12-21 11:40:25
|
显示全部楼层
|
阅读模式
我想写一个脚本,在不同的时间测试web服务器打开页面的速度,一个地址的相关连接文件如jpg,html.css,.gif文件等,总之在浏览器地址拦输入时显示的所有东西都下载过来,比如
www.tom.com,不知道有什么命令呢?我看了wget
和curl都好象只能下载单个文件的?
谢谢
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
显身卡
diskdriver
diskdriver
当前离线
积分
20
IP卡
狗仔卡
发表于 2006-12-21 12:59:24
|
显示全部楼层
wget -m
www.tom.com
回复
支持
反对
使用道具
举报
显身卡
dacheng
dacheng
当前离线
积分
996
IP卡
狗仔卡
发表于 2006-12-21 14:04:21
|
显示全部楼层
-m选项用于对整个网站进行镜像,楼主如果只下载一个页面的话,可以用下面的命令(以sina为例):
wget -p -nd
www.sina.com.cn
另外:Apache软件里自带的ab命令可以用来测试Web服务器
回复
支持
反对
使用道具
举报
显身卡
sg_gaoshou
sg_gaoshou
当前离线
积分
7
IP卡
狗仔卡
楼主
|
发表于 2006-12-21 14:54:45
|
显示全部楼层
测了一下,
测了一下,还是不一定能完全成功,不过还是感谢了
回复
支持
反对
使用道具
举报
显身卡
sg_gaoshou
sg_gaoshou
当前离线
积分
7
IP卡
狗仔卡
楼主
|
发表于 2006-12-21 14:56:28
|
显示全部楼层
测了一下,
测了一下,还是不一定能完全成功,不过还是感谢了
回复
支持
反对
使用道具
举报
显身卡
sg_gaoshou
sg_gaoshou
当前离线
积分
7
IP卡
狗仔卡
楼主
|
发表于 2006-12-21 14:56:34
|
显示全部楼层
测了一下,
测了一下,还是不一定能完全成功,不过还是感谢了
回复
支持
反对
使用道具
举报
显身卡
返回列表
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
注册
本版积分规则
发表回复
回帖后跳转到最后一页
浏览过的版块
红旗 REDFLAG Linux
硬件设备 Linux 驱动
LFS(LinuxfromScratch)
开源软件专题讨论
Debian Linux
Gentoo Linux
Linux 基础讨论区(新手速成)
BSD 讨论专题
Ubuntu Linux 专题讨论
Copyright © 2002-2023
LinuxSir.cn
(http://www.linuxsir.cn/) 版权所有 All Rights Reserved.
Powered by
RedflagLinux!
技术支持:
中科红旗
|
京ICP备19024520号
快速回复
返回顶部
返回列表