LinuxSir.cn,穿越时空的Linuxsir!

 找回密码
 注册
搜索
热搜: shell linux mysql
查看: 1126|回复: 4

如何让wget跟踪链接,下载需要的文件而不是网页

[复制链接]
发表于 2004-2-27 19:32:31 | 显示全部楼层 |阅读模式
比如要下载一个zip文件,它的地址是:http://download.online.sh.cn/red ... 7shiningloremtv.zip

用浏览器打开它会弹出下载窗口,并提示保存文件路径。但是用wget下载这个链接时,
下载的却是一个网页文件:

# wget http://download.online.sh.cn/redirect.php soft_id=27382&down_url=/pub/joy/cartoon/0227shiningloremtv.zip
[1] 3036
--19:23:40--  http://download.online.sh.cn/redirect.php?soft_id=27382
           => `redirect.php?soft_id=27382'
正在解析主机 download.online.sh.cn... 完成。
正在连接 download.online.sh.cn[218.1.64.44]:80... 已连接。
已发出 HTTP 请求,正在等待回应... 200 OK
长度:未指定 [text/html]

    [ <=>                                 ] 65            63.48K/s

19:23:40 (63.48 KB/s) - 已保存‘redirect.php?soft_id=27382’[65]


[1]+  Done                    wget http://download.online.sh.cn/redirect.php?soft_id=27382

请问如何才能下载到真正想要下载的文件?
发表于 2004-4-7 16:35:35 | 显示全部楼层
我也出现了这样情况!!怎么解决阿???
发表于 2004-4-7 18:45:39 | 显示全部楼层
用sniffer或是tcpdump闻出来吧
发表于 2004-4-7 18:59:29 | 显示全部楼层
这样太不方便了,找了一下,prozilla好象可以解析文件名!!
发表于 2004-4-8 07:38:28 | 显示全部楼层
嗯,是个提示关防火的网页
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表