On 2-11-2009, at 16h 49'15", Adrian Sevcenco wrote about "Re: [rlug] comparare diverse computere" > > > >Pe orice hardware cu distributed memory este la fel. Mai bine rulez 8 > >joburi pe 8 procesoare cite un procesor pe computer, decit 8 joburi pe 8 > >procesoare cite un job pe node. Nu stiu de ce. > Imi pare rau ... dar asta e stupid! poate sunt prea nou in HPC (nu am > decit citiva ani ca admin GRID si HPC) dar nu am auzit de asha ceva .. > si nu vreau sa ofensez pe nimeni dar asta e o timpenie! (poate cineva se > simte ofensat si imi demonstreaza ca sunt eu timpit .. si e excelent ca > mai invat ceva cu totul nou)
Stiu, dar lucrez asa de multi ani de zile, pe vremea cind nu puteam cumpara PC-cluster de la magazinele de calculatoare ca nu stiau ce-s alea. Primul l-am construit manual. Nodurile aveau 4U si un singur procesor. Acum nodurile au 1U si 8 procesoare... > >Da, aplicatia foloseste mpi si folosesc torque ca job scheduler. > hmmm ... ajungem la fraza de mai sus (unde ziceam eu de timpenie :) ) > MPI-ul se integreaza direct cu torqueul si cind trimiti un job pe masina > foloseste automat toate core-urile de acolo (sa te uiti cu un ps sau top) > Daca lanasezi 8 joburi pe acelasi node de 8 coreuri o sa ai 8x1 procese. > daca lansezi 8 joburi pe 8 noduri diferite o sa ai 8x8 procese ;) > De aia e mai bine asha ;) :D Nu. Comparam aici 8 noduri cu 8 procesoare care pot rula 8 joburi independente (fiecare nod un job pe 8 procesoare) sau 8 joburi in care fiecare job ia un CPU de la fiecare nod. Deci in fiecare caz toate cele 64 procesoare sint ocupate doar cine cu cine comnunica este diferit. > > Folosesti cumva rocks? Ce interconect au? e configurat sa fie folosit de > MPI? esti __sigur__ ca mpi-ul foloseste interconectul ala? Daca > folosesti rocks iti recomand cu caldura lista lor de mail. > PC-clusterele cu interconectul sint intr-adevar configurate cu rocks. Nu am access root la ele. Nu stiu prea mult despre rocks asta. Are rost sa ma interesez? Mugurel _______________________________________________ RLUG mailing list [email protected] http://lists.lug.ro/mailman/listinfo/rlug
