Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID 10 com zfs?
Thiago Em 15 de outubro de 2011 21:32, Marcelo Gondim <gon...@bsdinfo.com.br> escreveu: > Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: >> Buenas Marcelo !!! >> >> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas >> quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, >> mas até algum tempo atras não estava estavel (falo isso mas eu não sei >> como esta o estado dele hoje). >> >> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 >> no ports, sinceramente nunca usei, mas pode-se testar: > > Pronto agora em raidz ;) > > (root@zeus)[~]# zpool status storage > pool: storage > state: ONLINE > scan: none requested > config: > > NAME STATE READ WRITE CKSUM > storage ONLINE 0 0 0 > raidz1-0 ONLINE 0 0 0 > ad12 ONLINE 0 0 0 > ad14 ONLINE 0 0 0 > ad16 ONLINE 0 0 0 > ad18 ONLINE 0 0 0 > > errors: No known data errors > > As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida > que realmente funcione. ahahahahaah > Muito bom mesmo!!! > > >> >> [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr >> FreeBSD GEOM class for RAID5. >> >> This is RAID5 geom class, originally written by Arne Worner >> <arne_woer...@yahoo.com> >> >> WWW: http://lev.serebryakov.spb.ru/download/graid5/ >> >> Abraços >> >> >> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<gon...@bsdinfo.com.br> >> escreveu: >> >>> Olá Pesssoal, >>> >>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 >>> com eles. Usei o gvinum: >>> >>> drive r0 device /dev/ad12a >>> drive r1 device /dev/ad14a >>> drive r2 device /dev/ad16a >>> drive r3 device /dev/ad18a >>> volume raid5 >>> plex org raid5 512k >>> sd drive r0 >>> sd drive r1 >>> sd drive r2 >>> sd drive r3 >>> >>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 >>> ou existe alguma outra forma melhor no FreeBSD? >>> Uma outra coisa que aparece no boot é essa mensagem: >>> >>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. >>> gvinum/raid5[READ(offset=1500321938944, length=512)] >>> >>> Mas parece que está tudo funcionando: >>> >>> gvinum -> printconfig >>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 >>> 14:48:59 2011 >>> drive r0 device /dev/ad12a >>> drive r1 device /dev/ad14a >>> drive r2 device /dev/ad16a >>> drive r3 device /dev/ad18a >>> volume raid5 >>> plex name raid5.p0 org raid5 1024s vol raid5 >>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex >>> raid5.p0 plexoffset 0s >>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex >>> raid5.p0 plexoffset 1024s >>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex >>> raid5.p0 plexoffset 2048s >>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex >>> raid5.p0 plexoffset 3072s >>> >>> gvinum -> l >>> 4 drives: >>> D r0 State: up /dev/ad12a A: 0/476939 MB >>> (0%) >>> D r1 State: up /dev/ad14a A: 0/476939 MB >>> (0%) >>> D r2 State: up /dev/ad16a A: 0/476939 MB >>> (0%) >>> D r3 State: up /dev/ad18a A: 0/476939 MB >>> (0%) >>> >>> 1 volume: >>> V raid5 State: up Plexes: 1 Size: 1397 >>> GB >>> >>> 1 plex: >>> P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 >>> GB >>> >>> 4 subdisks: >>> S raid5.p0.s0 State: up D: r0 Size: 465 >>> GB >>> S raid5.p0.s1 State: up D: r1 Size: 465 >>> GB >>> S raid5.p0.s2 State: up D: r2 Size: 465 >>> GB >>> S raid5.p0.s3 State: up D: r3 Size: 465 >>> GB >>> >>> Essa mensagem de erro no boot é normal? >>> >>> Grande abraço à todos >>> >>> ------------------------- >>> Histórico: http://www.fug.com.br/historico/html/freebsd/ >>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd >> > > ------------------------- > Histórico: http://www.fug.com.br/historico/html/freebsd/ > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd > ------------------------- Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd