Aloha! Poderia usar o seguinte.. cat <arquivo_texto> | tr -s ' ' ' ' | cut -f<numero_do_campo> -d' '
uso o tr -s ' ' ' ' para deixar apenas um espaço em branco onde tiver mais do que um, para facilitar no cut exemplo de como ficaria o output do comando.. [EMAIL PROTECTED] ~]# cat arriba.txt | tr -s ' ' ' ' | cut -f1 -d' ' 10393039374943 30484030393903 3038947738383 43434343434344 30484030393903 10393039374943 ----- Mensagem original ---- De: Eduardo Lucas <[EMAIL PROTECTED]> Para: shell-script@yahoogrupos.com.br Enviadas: Quarta-feira, 7 de Novembro de 2007 17:14:41 Assunto: [shell-script] Ler Linhas do Arquivo Gurizada! ..tenho um arquivo texto..com o formato abaixo..: 10393039374943 030490 303202 39302 30484030393903 403032 223212 33201 3038947738383 303844 423434 44343 43434343434344 434343 434344 32323 30484030393903 403032 223212 33201 10393039374943 030490 303202 39302 preciso fazer um for... que leia linha por linha deste arquivo.... preciso que a cada laço do for, tenha a seguinte saida var1= 39302 <- ultima coluna da primeira linha var2= 33201<- ultima coluna da segunda linha no proximo laço seria..: var1= 44343 <- ultima coluna da terceira linha var2= 32323 <- ultima coluna da quarta linha alguma ideia... --------------------------------------------------------------------- Esta lista não admite a abordagem de outras liguagens de programação, como perl, C etc. Quem insistir em não seguir esta regra será moderado sem prévio aviso. --------------------------------------------------------------------- Sair da lista: [EMAIL PROTECTED] --------------------------------------------------------------------- Esta lista é moderada de acordo com o previsto em http://www.listas-discussao.cjb.net --------------------------------------------------------------------- Servidor Newsgroup da lista: news.gmane.org Grupo: gmane.org.user-groups.programming.shell.brazil Links do Yahoo! Grupos Abra sua conta no Yahoo! Mail, o único sem limite de espaço para armazenamento! http://br.mail.yahoo.com/ [As partes desta mensagem que não continham texto foram removidas]