Conferi, todas sao htm e mesmo assim nao vem todas
(achei muito estranho) sao cerca de 900 paginas para
baixar e so vem 300. Dai testei pegar individualmente
uma das paginas que nao veio e funcionou.
Nao sei porque esse comportamento.

Alguem sabe como eu poderia listar todos os arquivos que
tem em www.uol.com.br/remedios ? Assim eu poderia fazer
um script para ler esses arquivos e baixar um de cada
vez usando o wget, acho que dai nao tem erro!

>
>
> Luiz Fernando wrote:
>
> > Dei uma olhada no man e fiz o seguinte comando para
> > buscar todas as paginas htm de
> > http://www.uol.com.br/remedios
> >
> > wget -m -l 0 -A htm http://www.uol.com.br/remedios
> >
> >
> > Ele ate trouxe algumas paginas (cerca de 300) mas la
tem
> > mais de 900. Por que ele nao trouxe tudo?
> >
> > Alguem?
> >
> > Obrigado,
> > Luiz Fernando
> >
> >
>
>       Olha, confere se TODAS s�o htm (tenta htm*),
deveria chupar
> tudo...
>       Tenta usar 1 de profundidade com htm*.
>       O wget � b�o paca...
>
> Falows
>
>
>
>


__________________________________________________________________________
Quer ter seu pr�prio endere�o na Internet?
Garanta j� o seu e ainda ganhe cinco e-mails personalizados.
Dom�niosBOL - http://dominios.bol.com.br



Assinantes em 14/12/2001: 2351
Mensagens recebidas desde 07/01/1999: 146381
Historico e [des]cadastramento: http://linux-br.conectiva.com.br
Assuntos administrativos e problemas com a lista:
            mailto:[EMAIL PROTECTED]

Responder a