E ae,

>>Aproveitando, n�o valeria a pena fazer cluster para utilizar equipamentos 
>>"obsoletos"?
>>
>
Essa � a id�ia. Existe um projeto em uma universidade (n�o me lembro 
qual �, mas lembro que � americana) de fazer um super computador usando 
apenas PCs antigos.

>>Vamos supor que eu tivesse 20 P100, nao seria interessante eu colocar todos 
>>eles em cluster? Logicamente eles seriam esta��es tambem.
>>
>
A p�s-gradua��o em Ci�ncia da Computa��o tem dois laborat�rios com 
cluster: - um com um cluster de Pentium II (utilizado nas cadeiras de 
computa��o paralela e sistemas distribu�dos); - outro com um cluster de 
16 Pentiums biprocessados. No primeiro, as m�quinas s�o utilizadas 
normalmente, sendo que cada uma delas roda um servidorzinho para rodar 
programas disparados remotamente. D� pra disparar um processo que ser� 
rodado utilizando-se todas as m�quinas do cluster. No segundo, as 
m�quinas s�o utilizadas apenas para rodar os programas paralelos (elas 
n�o t�m monitor, teclado, etc).

>>O desempenho nao melhoraria, principamente se muitos estiverem ociosos
>>ou sendo utilizados para paciencia???
>>
>
O neg�cio n�o � bem assim. O programa tem que suportar o paralelismo. 
Ano passado cursei a cadeira de Programa��o Paralela, no Mestrado em 
Computa��o da PUCRS. A gente fazia programas paralelos usando, dentre 
outras coisas, MPI. Em MPI, as coisas funcionam mais ou menos assim...
- Faz-se um programa utilizando a biblioteca MPI.
 - Dispara-se este programa usando um script (mpirun, eu acho) indicando 
o n�mero de inst�ncias processando paralelamente.
 - Uma lista de m�quinas que comp�em o cluster � consultada para saber 
onde � poss�vel rodar o programa.
- O programa � disparado em nas m�quinas do cluster usando rsh (remote 
shell).
 - Se, por exemplo, voc� tem apenas 8 m�quinas no cluster e pediu que 10 
inst�ncias sejam executadas, ent�o a 9a. e a 10a. inst�ncia ser�o 
executadas nas duas primeiras m�quinas.
- A biblioteca MPI possui fun��es para que voc� possa:
    - obter a quantidade de m�dulos disparados
     - obter qual � o seu pr�prio n�mero
     - enviar mensagens para outro m�dulo
     - receber mensagens de outro m�dulo
 - Pode-se utilizar, por exemplo, a primeira inst�ncia (MPI_getid() = 0, 
eu acho... � alguma coisa assim...) para distribuir as tarefas, enviando 
mensagens para as outras inst�ncias com os dados a serem processados.
Eu tenho uns programas que eu fiz na aula usando MPI. Se algu�m quiser, 
pedir em PVT.
Outra coisa: se n�o me engano, tem uma vers�o do ORACLE que suporta 
clustering (algu�m conhece?).

 []s
Murilo
-- Murilo Juchem [EMAIL PROTECTED] http://www.linux.juchem.net  



Assinantes em 30/11/2001: 2411
Mensagens recebidas desde 07/01/1999: 144216
Historico e [des]cadastramento: http://linux-br.conectiva.com.br
Assuntos administrativos e problemas com a lista: 
            mailto:[EMAIL PROTECTED]

Responder a