Conferi, todas sao htm e mesmo assim nao vem todas (achei muito estranho) sao cerca de 900 paginas para baixar e so vem 300. Dai testei pegar individualmente uma das paginas que nao veio e funcionou. Nao sei porque esse comportamento.
Alguem sabe como eu poderia listar todos os arquivos que tem em www.uol.com.br/remedios ? Assim eu poderia fazer um script para ler esses arquivos e baixar um de cada vez usando o wget, acho que dai nao tem erro! > > > Luiz Fernando wrote: > > > Dei uma olhada no man e fiz o seguinte comando para > > buscar todas as paginas htm de > > http://www.uol.com.br/remedios > > > > wget -m -l 0 -A htm http://www.uol.com.br/remedios > > > > > > Ele ate trouxe algumas paginas (cerca de 300) mas la tem > > mais de 900. Por que ele nao trouxe tudo? > > > > Alguem? > > > > Obrigado, > > Luiz Fernando > > > > > > Olha, confere se TODAS s�o htm (tenta htm*), deveria chupar > tudo... > Tenta usar 1 de profundidade com htm*. > O wget � b�o paca... > > Falows > > > > __________________________________________________________________________ Quer ter seu pr�prio endere�o na Internet? Garanta j� o seu e ainda ganhe cinco e-mails personalizados. Dom�niosBOL - http://dominios.bol.com.br Assinantes em 14/12/2001: 2351 Mensagens recebidas desde 07/01/1999: 146381 Historico e [des]cadastramento: http://linux-br.conectiva.com.br Assuntos administrativos e problemas com a lista: mailto:[EMAIL PROTECTED]
