On Mon, Dec 05, 2022 at 07:38:00PM +0100, Diego Zuccato wrote:
> Il 05/12/2022 18:09, Marco Ciampa ha scritto:
> > Mah io sono abbastanza scettico sui controller hw. Se sono del tipo
> > "fake" ovvero software, ok linux li supporta per cui puoi far funzionare
> > il raid anche se non hai il control
Il 05/12/2022 18:09, Marco Ciampa ha scritto:
Mah io sono abbastanza scettico sui controller hw. Se sono del tipo
"fake" ovvero software, ok linux li supporta per cui puoi far funzionare
il raid anche se non hai il controller.
Questo non mi è mai riuscito.
Comunque normalmente è un sistema che u
On Mon, Dec 05, 2022 at 09:30:30AM +0100, Diego Zuccato wrote:
> Il 04/12/2022 21:27, Marco Ciampa ha scritto:
>
> Il metodo più semplice è usare una controllerina con RAID1 HW (ne avevo
> viste anche che si spacciavano direttamente per un disco, praticamente "in
> line" sul cavo SATA), che sia il
Il 04/12/2022 21:27, Marco Ciampa ha scritto:
Il metodo più semplice è usare una controllerina con RAID1 HW (ne avevo
viste anche che si spacciavano direttamente per un disco, praticamente
"in line" sul cavo SATA), che sia il più trasparente possibile sia per
il BIOS che poi per il SO.
Oltretu
Debian 11 con Uefi e raid
mdadm.
mdadm e Uefi non sono compatibili e quindi la partizione ESP non può stare
in una partizione raid.
Oibo! Da dove ti viene questa convinzione? Io ho installato poco tempo fa
un RAID software su UEFI...
Ho trovato questo:
https://wiki.debian.org/UEFI
On 12/4/22 19:53, fran...@modula.net wrote:
Salve,
oggi mi sono avventurato nella installazione di un Debian 11 con Uefi
e raid mdadm.
mdadm e Uefi non sono compatibili e quindi la partizione ESP non può
stare in una partizione raid.
ad ogni aggiornamento di grub manualmente eseguo
a installazione di un Debian 11 con Uefi e
> > > raid
> > > mdadm.
> > >
> > > mdadm e Uefi non sono compatibili e quindi la partizione ESP non può stare
> > > in una partizione raid.
> > Oibo! Da dove ti viene questa convinzione? Io ho insta
On Sun, Dec 04, 2022 at 07:40:28PM +, Marco Ciampa wrote:
> On Sun, Dec 04, 2022 at 07:53:51PM +0100, fran...@modula.net wrote:
> > Salve,
> >
> > oggi mi sono avventurato nella installazione di un Debian 11 con Uefi e raid
> > mdadm.
> >
> > mdadm
Il 04/12/2022 20:40, Marco Ciampa ha scritto:
On Sun, Dec 04, 2022 at 07:53:51PM +0100, fran...@modula.net wrote:
Salve,
oggi mi sono avventurato nella installazione di un Debian 11 con Uefi e raid
mdadm.
mdadm e Uefi non sono compatibili e quindi la partizione ESP non può stare
in una
On Sun, Dec 04, 2022 at 07:53:51PM +0100, fran...@modula.net wrote:
> Salve,
>
> oggi mi sono avventurato nella installazione di un Debian 11 con Uefi e raid
> mdadm.
>
> mdadm e Uefi non sono compatibili e quindi la partizione ESP non può stare
> in una partizione raid.
O
Salve,
oggi mi sono avventurato nella installazione di un Debian 11 con Uefi e
raid mdadm.
mdadm e Uefi non sono compatibili e quindi la partizione ESP non può
stare in una partizione raid.
Esiste almeno un workaround per risolvere il problema ma installare
nuovi server che per il boot
Il 03/09/21 16:42, gerlos ha scritto:
[...]
Tanto se usi file system come ext4 e xfs puoi allargare un volume
logico in un unico step (senza smontare nulla) con un comando come
lvextend --size +100G --resizefs /path/to/logicalvolume
Ciao gerlos, grazie, sto ancora facendo un po' di test... s
Il 06/09/21 09:58, Piviul ha scritto:
Il 03/09/21 16:42, gerlos ha scritto:
Inoltre è buona pratica non usare immediatamente tutto lo storage
disponibile sui PV, ma anzi far crescere le dimensioni di logical
volume man mano che emerge la necessità - così hai spazio sia per
eventuali snapshot,
On Mon, Sep 06, 2021 at 09:58:07AM +0200, Piviul wrote:
> Il 03/09/21 16:42, gerlos ha scritto:
> > Inoltre è buona pratica non usare immediatamente tutto lo storage
> > disponibile sui PV, ma anzi far crescere le dimensioni di logical volume
> > man mano che emerge la necessità - così hai spazio s
Il 03/09/21 16:42, gerlos ha scritto:
Inoltre è buona pratica non usare immediatamente tutto lo storage
disponibile sui PV, ma anzi far crescere le dimensioni di logical
volume man mano che emerge la necessità - così hai spazio sia per
eventuali snapshot, sia per eventuale over provisioning che
Il giorno ven, 03/09/2021 alle 15.01 +0200, Piviul ha scritto:
[...]
> Scusa, non ho ben capito la tua risposta... comunque a ben pensarci non
> credo che lvm controlli se 2 PV appartengano o meno allo stesso disco
> prima di salvare sui PV che compongo il gruppo su cui si basa il raid.
> In alt
Il 03/09/21 15:01, Piviul ha scritto:
Il 02/09/21 21:35, Mauro ha scritto:
[...]
provvede da solo ad allocare il raid usando i due dischi. Altrimenti
non avrebbe senso e ci sarebbe pure una discreta perdita di prestazioni.
Scusa, non ho ben capito la tua risposta... comunque a ben pensarci
Il 02/09/21 21:35, Mauro ha scritto:
[...]
provvede da solo ad allocare il raid usando i due dischi. Altrimenti
non avrebbe senso e ci sarebbe pure una discreta perdita di prestazioni.
Scusa, non ho ben capito la tua risposta... comunque a ben pensarci non
credo che lvm controlli se 2 PV app
È davvero molto interessante... secondo voi si può utilizzare un raid in
thin provisioning? Se la risposta fosse affermativa, il RAID va
impostato sull'LV del pool o sul volume logico creato dal pool?
Ma avrebbe senso secondo voi usare lo thin-provisioning per gestire i LV
di un server per i n
Il 03/09/21 09:09, Marco Ciampa ha scritto:
[...]
Molto interessante grazie! Le mie informazioni evidentemente erano
vecchie. Con mdadm era possibile passare da RAID 1 a RAID 5 e poi 6 ecc.
con LVM è ancora possibile farlo?
da quel che ho appreso finora con lvconvert fa tutto quel che chiedi
On Thu, Sep 02, 2021 at 10:47:59AM +0200, gerlos wrote:
> Il 01/09/21 09:18, Piviul ha scritto:
>
> Ciao a tutti, se volessi usare LVM con ridondanza (RAID) software secondo
> voi qual è la soluzione migliore fra le seguenti?
>
> 1. creare un device con mdadm ed utilizza
Il 02/09/21 14:14, Piviul ha scritto:
...interessante, davvero molto interessante! Immagino però che
Bisognerà avere l'accortezza di avere PV su dischi diversi altrimenti
rischi che la ridondanza RAID venga memorizzata sullo stesso disco...
che non è bene! ...oppure ci pensa già da solo ad u
Il 02/09/21 10:47, gerlos ha scritto:
[...]
Semplicemente, non appena LVM si accorge che non può più accedere a
quel volume fisico, lo rimuove dal mirror, e ti ritrovi con un normale
LV lineare ;-) (almeno, è così che fa nella configurazione predefinita
di Debian e Ubuntu)
spero mi avvis
Il 02/09/21 10:47, gerlos ha scritto:
[...]
La documentazione di Red Hat è eccellente per tutto quello che ha a
che fare con LVM, e nella mia esperienza è applicabile al 99,% a
Debian e Ubuntu.
Vedi ad esempio:
-
https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/8/
Il 01/09/21 09:18, Piviul ha scritto:
Ciao a tutti, se volessi usare LVM con ridondanza (RAID) software secondo
voi qual è la soluzione migliore fra le seguenti?
1. creare un device con mdadm ed utilizzarlo come PV in LVM
2. creare i LV da utilizzare come volumi per mdadm e poi creare l'
Il 01/09/21 10:57, Mauro ha scritto:
[...]
la terza: SI SI SI. intanto il raid di lvm si basa sempre su mdadm ma
diviene molto piu' dinamico. inoltre hai modo di unire i vantaggi del
RAID integrandolo con tutte le funzionalita' per cui LVM e' vincente.
Puoi, cosi'
Il 01/09/21 09:18, Piviul ha scritto:
1. creare un device con mdadm ed utilizzarlo come PV in LVM
2. creare i LV da utilizzare come volumi per mdadm e poi creare
l'array con mdadm basandosi sui volumi LVM
3. non utllizzare mdadm affatto e usare le opzioni in LVM (lvcreate
-type raid
On Wed, Sep 01, 2021 at 10:24:13AM +0200, Paolo Miotto wrote:
> Il 01/09/21 09:18, Piviul ha scritto:
> > Ciao a tutti, se volessi usare LVM con ridondanza (RAID) software
> > secondo voi qual è la soluzione migliore fra le seguenti?
> >
> > 1. creare un device con mdad
Il 01/09/21 09:18, Piviul ha scritto:
Ciao a tutti, se volessi usare LVM con ridondanza (RAID) software
secondo voi qual è la soluzione migliore fra le seguenti?
1. creare un device con mdadm ed utilizzarlo come PV in LVM
Io ti consiglio questa soluzione perché ti permette più flessibilità
Ciao a tutti, se volessi usare LVM con ridondanza (RAID) software
secondo voi qual è la soluzione migliore fra le seguenti?
1. creare un device con mdadm ed utilizzarlo come PV in LVM
2. creare i LV da utilizzare come volumi per mdadm e poi creare l'array
con mdadm basandosi sui volum
Il 28/02/20 00:30, fran...@modula.net ha scritto:
ma la cosa più curiosa è che il comando "ls /dev/md*" lista sia md3
che md3p1, quest'ultimo con un insolito tipo "259":
md3p1 dovrebbe riferirsi alla partizione, se elimini la tabella delle
partizioni rimane solo md3 e se invece crei altre p
Salve,
Ho aggiunto due dischi da 2TB su un controller Sata settato AHCI, con
identiche partizioni per il Raid /dev/sdc1 e raid /dev /sdd1
Ho assemblato il Raid con "mdadm --create --verbose /dev/md/3
--level=mirror --raid-devices=2 /dev/sdc1 /dev/sdd1"
"ls /dev/disk/by
> Il giorno 10/set/2015, alle ore 15:12, Pol Hallen
> ha scritto:
>
>
> ho selezionato /dev/sdb e /dev/sdc
da le mie precedenti bestemmie con mdadm e la sostituzione dei dischi:
a: il nuovo disco ha cambiato uuid: accertarsi che grub abbia acquisito i nuovi
uuid
Pol Hallen ha scrito il 10/09/2015 alle 15:12:
[...]
no no.. è un disco dati, il boot è sempre stato su /dev/sdb e /dev/sdc
normalmente nel 90% dei bios sda è il disco di boot. Quindi una
controllate nel bios io la darei e anche se fai un grub-install /dev/sda
non cancelli nulla dei dati ivi con
Pol Hallen ha scrito il 10/09/2015 alle 15:12:
> [...]
> no no.. è un disco dati, il boot è sempre stato su /dev/sdb e /dev/sdc
normalmente nel 90% dei bios sda è il disco di boot. Quindi una
controllate nel bios io la darei e anche se fai un grub-install /dev/sda
non cancelli nulla dei dati ivi co
dpkg-reconfigure -plow grub-pc
questo ci dice poco nel senso che non sappiamo come hai risposto alle
domande che ti sono state poste.
ho selezionato /dev/sdb e /dev/sdc
In ogni caso la prossima volta esegui il comando grub-install /dev/sd?
dove sd? è il disco che hai sostituito
ok!
A ques
Pol Hallen ha scrito il 10/09/2015 alle 14:38:
> ciao a tutti.. sono nei guai :-/
>
> ho sostituito un disco ad un server con mdadm (raid 1) - disco di
> sistema, con partizionamento solito:
>
> /dev/sdb1 swap
> /dev/sdb2 /
> /dev/sdb3 data
>
> /dev/sdc1 swap
ciao a tutti.. sono nei guai :-/
ho sostituito un disco ad un server con mdadm (raid 1) - disco di
sistema, con partizionamento solito:
/dev/sdb1 swap
/dev/sdb2 /
/dev/sdb3 data
/dev/sdc1 swap
/dev/sdc2 /
/dev/sdc3 data
mdadm ha ricreato i dati sull'unità nuova. Ho quindi riscritto
Il 18 maggio 2013 12:52, Luca Costantino ha scritto:
> ho un piccolo serverino casalingo con sid 3 4 hd da 1 tera in raid 5
> sw con mdadm
>
> [...]
>
> ho "risolto" scaricando e compilando i sorgenti, ma vorrei ritornare
> quanto prima al pacchetto debian... qual
Il 14/11/2012 09:37, compact ha scritto:
> c'e' qualcuno che mi puo' aiutare
> un grazie in anticipo
Assemble con --update=super-minor e --super-minor=9 dovrebbe fare al caso tuo.
Se vuoi fare un backup del superblock prima di fare quel cambiamento, informati
qui per sapere dov'è e com'è compost
Scusate sto provando a rinominare un raid software md4 in md9
attualmente sto facendo cosi:
cat /proc/mdstat
Personalities : [raid1]
md4 : active (auto-read-only) raid1 sda6[0] sdb6[2] sdc6[1]
184594752 blocks [3/3] [UUU]
mdadm --stop /dev/md4
mdadm -A /dev/md9 /dev/sda6 /dev/sdb6 /dev
Dopo che il disco ha passato il controllo di badblocks con l'opzione -w, sono
andato ad indagare ancora più a fondo.
Solo mdadm non riesce a scrivere il superblock solo versione 1.2 su quello
specifico disco.
Il superblock 1.2 si trova a 4k dall'inizio del disco, l'1.1 all'in
sing e anche in questo caso mdadm non vi creava dentro alcun superblock.
Uno --stop seguito da qualsiasi tipo di --assemble non dava risultati causa
mancanza di superblock
Dopodiché sempre a scopo di test ho creato un array tra quel disco e una
chiavetta usb che mi avanzava e il risultato è stato che
Un saluto a tutti, mi scuso per l'altra mail incompleta ma è partita a seguito
di un problema tecnico ;)
Parlo di una debian stable con kernel 3.2 da backport.
All'improvviso senza una ragione ben precisa mdadm ha iniziato a considerarmi
il terzo disco di un RAID 5 come removed a o
Ciao Alessandro,
Il giorno mer, 16/05/2012 alle 19.53 +0200, Alessandro Baggi ha scritto:
[...]
> Ciao Giuseppe,
> si le partizioni sono del tipo "fd".
Se le partizioni sono del tipo giusto allora ci deve essere un tentativo
del kernel di costruire il multidisk. Ci sono varie possibilità: la
prim
effettivamente memorizzato nel superblocco con
l'opzione -E di mdadm?
Piviul
Ciao Piviul,
farò un controllo domani sulle macchine interessate. Grazie.
On 05/16/2012 01:19 PM, Giuseppe Sacco wrote:
le partizioni fisiche sono del tipo «fd» (Linux RAID auto)?
Ciao,
G.
Ciao Giuseppe,
si le parti
Il giorno mer, 16/05/2012 alle 08.12 +0200, a.b ha scritto:
> Ciao Giuseppe.
>
> La versione di Debian è squeeze con kernel 2.6.32-5-amd64.
> Il problema non è su lvm. Nella seconda macchina lvm ancora non è
> configurato e non riporta nessun errore. Faccio riferimento solo ad m
superblocco con
l'opzione -E di mdadm?
Piviul
--
Per REVOCARE l'iscrizione alla lista, inviare un email a
debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org
To UNSUBSCRI
Ciao Giuseppe.
La versione di Debian è squeeze con kernel 2.6.32-5-amd64.
Il problema non è su lvm. Nella seconda macchina lvm ancora non è
configurato e non riporta nessun errore. Faccio riferimento solo ad mdadm.
Ulteriormente le partizioni di cui stiamo parlando non fanno riferimento
a
Ciao Alessandro,
Il giorno mar, 15/05/2012 alle 09.12 +0200, a.b ha scritto:
[...]
> Quello che non riesco a capire è perche sulla prima macchina non sono
> necessarie le info come num-devices level e metadata mentre sulla
> seconda, se non presenti non avvia i raid.
di quale versione di Debian
Salve ragazzi,
stavo facendo un po di prove con lvm e raid con mdadm tutto funziona
perfettamente (tutto in vm con kvm).
Successivamente ho provato a eseguire di nuovo le operazioni per la
creazione del vl su un'altra macchina virtuale, ma ho avuto problema
con mdadm.
Il problema
> In alternativa sempre usare i raid sw, perche' i fake raid hanno la
> peculiarita di poter essere usati solo con quel controller, e se si
> dovesse rompere va sostituito con uno uguale.
L'unico motivo per usare il fake può essere se vuoi leggere i dati da 2
sistemi in dualboot (win non dovrebbe
Thu 16 June 2011, alle 07:35 +0200, Manuel Jenko ha scritto:
> 2011/6/15 dea
>
>
> Praticamente mi interessava se Fake-Raid e SW Raid siano compatibili cosi'
> da creare in linux una mdx per far magari una copia del disco come disco
> unico (infatti fare magari il dd di md0), per non di doverlo
2011/6/16 dea
>
> > non so come potrei organizzare i LVM con Win$...
>
> Con una macchina Debian che fa "girare" in KVM una virtuale Win$ contenuta
> in
> un LVM.
>
> :)
>
> Luca
>
Lo so, abbiamo alcune cose che girano cosi', solo che si tratta di un Blade
della HP, e ci sno piu' macchine virtu
> non so come potrei organizzare i LVM con Win$...
Con una macchina Debian che fa "girare" in KVM una virtuale Win$ contenuta in
un LVM.
:)
Luca
--
Per REVOCARE l'iscrizione alla lista, inviare un email a
debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per
problemi invia
2011/6/16 dea
> Poi, se l'accesso ai singoli dischi fisici è regolato dal driver Intel o
> dal
> driver Promise (entrambi fake raid, dove ciascuno ha caratteristiche
> proprie)
> piuttosto che dal driver xyz nulla cambia, chi fa il RAID è sempre MD, il
> livello MD, il livello driver di accesso f
> Praticamente mi interessava se Fake-Raid e SW Raid siano compatibili
> cosi' da creare in linux una mdx per far magari una copia del disco
> come disco unico (infatti fare magari il dd di md0), per non di
> doverlo fare con tutti i dischi.
>
> Manuel
Avrai capito che non uso RAID MD, ma a q
2011/6/15 dea
> Io non ho ancora capito quale sia la domanda (scusate, ma sono un po fuso).
> Se la domanda è "voglio prendere un disco fisico di un RAID HW" e voglio
> spostarlo su un MD, vi rispondo *AUGURI*.
> Quello che fa e come lo fa il lavoro un controller HW non è affatto detto
> che
> si
> Cosa vuol dire?
> Un sistema che ha dei dischi Raid HW (Es RAID 5 con 3 dischi da 200G)
> mostra al kernel un solo disco come sostieni anche tu ma la
> partizione sopra potrebbe essere una sola ed avere la dimensione
> dell'intero disco logico (nel caso di RAID 5 è pari al doppio di
> uno dei
Perdonami ma non sono per nulla convinto.
- SERVER con RAID HW controller IBM
server1:~# fdisk -l
Disk /dev/sda: 36.3 GB, 36398825472 bytes
255 heads, 63 sectors/track, 4425 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x000e99de
Device
2011/6/15 dea
>
> Capperi, vedo un po di confusione.
>
> - Prima cosa fai un backup con dd di un disco del RAID, prima di metterti a
> giocare (in RW).
> - Se usi un controller Intel (tipo ICH10 o simili). stai usando un fake
> raid,
> quindi è come se utilizzassi un RAID software.
> - E' quindi
> Sono pressochè sicuro che un disco in un array RAID HW non è
> compatibile con la struttura RAID SW di Linux. D'altro canto credo
> che una struttura RAID SW non del kernel di Linux ma magari
> proprietaria rischia anche essa di essere incopatibile.
>
> Ergo se ci sono dati importanti fanne
Capperi, vedo un po di confusione.
- Prima cosa fai un backup con dd di un disco del RAID, prima di metterti a
giocare (in RW).
- Se usi un controller Intel (tipo ICH10 o simili). stai usando un fake raid,
quindi è come se utilizzassi un RAID software.
- E' quindi corretto che vedi i dischi singo
lmete come sda e sdb (sda1 e sdb1 sono assenti). Mi
interesserebbe se con mdadm --create /dev/md0 --chunk=4 --level=1
--raid-devices=2 /dev/sda1 /dev/sdb1 creerebbe una raid1 dai 2 dischi
senza modificare i dati, cosi' che al prossimo reboot possa lavorarci
avanti come se niente fosse. Se
> ho 2 dischi in raid1 che sono stati creati col SW RAID della intel. Ho
> messo sulla macchina una live ma non mi riconosce i dischi come raid unico
> ma normalmete come sda e sdb (sda1 e sdb1 sono assenti). Mi interesserebbe
> se con mdadm --create /dev/md0 --chunk=4 --level=1 --ra
buongiorno,
ho 2 dischi in raid1 che sono stati creati col SW RAID della intel. Ho messo
sulla macchina una live ma non mi riconosce i dischi come raid unico ma
normalmete come sda e sdb (sda1 e sdb1 sono assenti). Mi interesserebbe se
con mdadm --create /dev/md0 --chunk=4 --level=1 --raid-devices
> Licenzia il capo! . . . ovvio no? :D :D
ahahahah :-)
Pol
--
Per REVOCARE l'iscrizione alla lista, inviare un email a
debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org
To UNSUBSCRIBE, email to debian-i
In data giovedì 21 aprile 2011 15:09:04, Pol Hallen ha scritto:
> > Circa un mese fa ho aggiornato una Debian 5.0 alla 6.0 con un softraid
> > attivo. Nonostante sia restio all'utilizzo di raid software, li non
> > potevo fare altrimenti e devo dire che non ho avuto alcun problema (ma
> > proprio z
> e se va male che gli dico al capo? :-D
Se la macchina ha LVM.. attivi lo snapshot, fai un dump del sistema o delle
partizioni critiche su uno storage esterno (per capirci la /home non ti
interessa) e vivi un sereno upgrade.
Luca
--
Per REVOCARE l'iscrizione alla lista, inviare un email a
d
.
Il fatto è che amministrando questo server non posso "incrociare le dita" e
sperare nel fato che tutto vada bene..
e se va male che gli dico al capo? :-D
faccio un pò di ricerche nei bug di mdadm, grazie :)
Pol
--
Per REVOCARE l'iscrizione alla lista, inviar
On 21/04/2011 12:45, Paolo Sala wrote:
Rinnovo la domanda anche a te: con o senza lvm?
Senza.
--
Per REVOCARE l'iscrizione alla lista, inviare un email a
debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per
problemi inviare un email in INGLESE a listmas...@lists.debian.or
Il 21/04/2011 12:10, Paolo Sala ha scritto:
dea scrisse in data 21/04/2011 12:02:
Pol, non so se la mia risposta può esserti di aiuto o meno..
Circa un mese fa ho aggiornato una Debian 5.0 alla 6.0 con un softraid attivo.
con anche lvm?
Ciao
Piviul
Confermo anche io, nessun problema su div
> con anche lvm?
Quella macchina senza.
Luca
--
Per REVOCARE l'iscrizione alla lista, inviare un email a
debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org
To UNSUBSCRIBE, email to debian-italian-requ...@l
mail...@securitylabs.it scrisse in data 21/04/2011 12:05:
> Ho debian 6.0 su una quindicina di server, di questi 4 sono nuove
> installazioni e il resto upgrade da 5 a 6, tutte con raid 1 software,
> per ora (sgrat) nessun problema. C'è da dire che sono solo 2 hardware
> diversi (nemmeno troppo) e
On 21/04/2011 11:38, Pol Hallen wrote:
stavo giusto studiando i pacchetti critici e i vari servizi e mi accorgo di
mdadm:
dall'attuale versione: 2.6.7 (oldstable) si passa alla 3.1.4 (l'attuale
stable) ma con diversi bug e non poco gravi come risulta dalla pagina
bugtrack di debian fi
dea scrisse in data 21/04/2011 12:02:
> Pol, non so se la mia risposta può esserti di aiuto o meno..
>
> Circa un mese fa ho aggiornato una Debian 5.0 alla 6.0 con un softraid attivo.
>
con anche lvm?
> Nonostante sia restio all'utilizzo di raid software, li non potevo fare
> altrimenti e devo
Pol, non so se la mia risposta può esserti di aiuto o meno..
Circa un mese fa ho aggiornato una Debian 5.0 alla 6.0 con un softraid attivo.
Nonostante sia restio all'utilizzo di raid software, li non potevo fare
altrimenti e devo dire che non ho avuto alcun problema (ma proprio zero).
La macchi
Vediamo se mi sfugge qualcosa oppure è effettivamente così :-)
ho un delicato server di produzione e per necessità esterne devo per forza
aggiornarlo da oldstable all'attuale stable..
stavo giusto studiando i pacchetti critici e i vari servizi e mi accorgo di
mdadm:
dall'attual
ma solo una attiva, senza che l'altra risulti essere fallita U_ o _U, qui
credo che devi modificare la tipologia di raid con il comando
mdadm --grow /dev/md0 --raid-devices=2
comunque siccome non sono sicuro al 100% meglio un backup preventivo
oppure non avere dati che possano servire.
Il lunedì 8 marzo 2010 19:21:18 Mls_usr ha scritto:
> Ciao a tutti,
> ho un problemino, ho una situazione dei raid di questo tipo:
>
> debian:~# cat /proc/mdstat
> Personalities : [raid1]
> md2 : active raid1 sdd1[1] sdc1[0]
> 488383936 blocks [2/2] [UU]
>
> md1 : active (auto-read-only) raid
Ciao a tutti,
ho un problemino, ho una situazione dei raid di questo tipo:
debian:~# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sdd1[1] sdc1[0]
488383936 blocks [2/2] [UU]
md1 : active (auto-read-only) raid1 sdb3[1] sda3[0]
292969280 blocks [2/2] [UU]
i, al reboot di solito tutto torna alla
> normalita`, ovvero mdadm accetta --add, cosa che ora (anche dopo
> --remove) non fa.
>
> Neppure riesco ad accedere a /dev/sdc
dalla mia esperienza se non si tratta di un problema di dischi, è un
problema
di controllor, se non è un problema d
n sdc2, disabling
device. Operation continuing on 4 devices
...
Jun 26 10:20:49 prometeo mdadm: Fail event detected on md device
/dev/md0, component device /dev/sdc1
Jun 26 10:20:49 prometeo mdadm: Fail event detected on md device
/dev/md1, component device /dev/sdc2
...
Jun 26 10:21:20 prometeo
Il 01/03/07, Roberto su tiscali<[EMAIL PROTECTED]> ha scritto:
Buongiorno a tutti!
per me non lo è vi prego aiutatemi, ho installato ieri l'ultima debian
stable, finito di configurare tutto, tiro su il raid con questa stringa
pbt:~# mdadm --create /dev/md0 --level=1 --raid-devices=2
Buongiorno a tutti!
per me non lo è vi prego aiutatemi, ho installato ieri l'ultima debian
stable, finito di configurare tutto, tiro su il raid con questa stringa
pbt:~# mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sd[bd]1
pbt:~#
e va, poi ho riavviato la macchina per v
RaSca ha scritto:
Ciao,
allora Debian Etch, l'ultimo aggiornamento (che non facevo da tempo) ha
updatato mdadm, e non riesco più a ricomporre l'array.
Questo è il contenuto della configurazione in mdadm.conf (che è sempre
andata) :
[...]
avaria:~# mdadm -a /dev/md0 /dev/hdd1
mda
Ciao,
allora Debian Etch, l'ultimo aggiornamento (che non facevo da tempo) ha
updatato mdadm, e non riesco più a ricomporre l'array.
Questo è il contenuto della configurazione in mdadm.conf (che è sempre
andata) :
DEVICE /dev/hdc1 /dev/hdd1
ARRAY /dev/md0 level=raid1 num-devic
On 6/23/06, Paolo Sala <[EMAIL PROTECTED]> wrote:
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
Vinz486 scrisse in data 06/23/06 14:56:
| Anche io ho "perso" un maxtor dopo poco tempo: ho cercato info sul
| disco, ed ho notato che la Maxtor indicava simpaticamente quel
| modello come LowIO e "f
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
Vinz486 scrisse in data 06/23/06 14:56:
| Anche io ho "perso" un maxtor dopo poco tempo: ho cercato info sul
| disco, ed ho notato che la Maxtor indicava simpaticamente quel
| modello come LowIO e "for Desktop use". E che vorrà dire mai?
| Semplice,
On 6/20/06, Fabio Marcone <[EMAIL PROTECTED]> wrote:
ùù> Ma possibile che i dischi maxtor si rompono come i grissini? sono dischi
nuovi usati (poco) da una decina di giorni con case aperto e sotto un
condizionatore!
Anche io ho "perso" un maxtor dopo poco tempo: ho cercato info sul
disco, ed ho
questi messaggi sono in /var/log/kern.log e sono gli stessi ad ogni riavvio:
Jun 21 09:19:42 localhost kernel: klogd 1.4.1#17, log source =
/proc/kmsg started.
Jun 21 09:19:42 localhost kernel: Inspecting /boot/System.map-2.6.16.1-sara
Jun 21 09:19:42 localhost kernel: Loaded 27187 symbols from
ciao a tutti,
ho ricompilato 2 kernel: 2.6.16.1 (backports) e 2.6.17 (vanilla) e
sembra che il driver sata per silicon image non ha lo stesso bug (sono
riuscito a riallineare il raid).
Ora però il problema è che con entrambi i kernel ho klogd che consuma
cpu al 99,9% sempre. Nei log non ho tr
PGP SIGNED MESSAGE-
Hash: SHA1
Fabio Marcone scrisse in data 06/20/06 12:08:
| ciao a tutti, sto mettendo su un server (Sarge) con raid 1 (mdadm)
| con 2 dischi maxtor sata da 230 GB.
|
| Stavo facendo delle prove e mentre creavo (con dd) un file da 1 GB,
| ho avuto un errore di I/O su un
ebian ricompilato.
Fabio
Paolo Sala wrote:
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
Fabio Marcone scrisse in data 06/20/06 12:08:
| ciao a tutti, sto mettendo su un server (Sarge) con raid 1 (mdadm)
| con 2 dischi maxtor sata da 230 GB.
|
| Stavo facendo delle prove e mentre creavo (con d
do su un server (Sarge) con raid 1 (mdadm)
| con 2 dischi maxtor sata da 230 GB.
|
| Stavo facendo delle prove e mentre creavo (con dd) un file da 1 GB,
| ho avuto un errore di I/O su un disco. Ho riavviato ma al
| resyncing sempre il solito errore. Per ora ho settato il disco
| faulty e l'ho r
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
Fabio Marcone scrisse in data 06/20/06 12:08:
| ciao a tutti, sto mettendo su un server (Sarge) con raid 1 (mdadm)
| con 2 dischi maxtor sata da 230 GB.
|
| Stavo facendo delle prove e mentre creavo (con dd) un file da 1 GB,
| ho avuto un errore di
Il giorno mar, 20/06/2006 alle 12.23 +0200, Alessandro Pellizzari ha
scritto:
> Il giorno mar, 20/06/2006 alle 12.08 +0200, Fabio Marcone ha scritto:
>
> > oppure è il raid software che non funziona o che rovina i dischi?
>
> Ci gira il 2.4. Non so se col 2.6 ci siano problemi.
Mi correggo (qua
Il giorno mar, 20/06/2006 alle 12.08 +0200, Fabio Marcone ha scritto:
> oppure è il raid software che non funziona o che rovina i dischi?
Ho un server in piedi da 2 anni su RAID 1 software con sarge, e ci ho
copiato anche file di 8 Gb. Mai avuto problemi dal RAID, anzi.
Ci gira il 2.4. Non so se
>Ma possibile che i dischi maxtor si rompono come i grissini? sono dischi
>nuovi usati (poco) da una decina di giorni con case aperto e sotto un
>condizionatore!
>oppure è il raid software che non funziona o che rovina i dischi?
La prima che hai detto.
Se e' ancora in garanzia, fattelo sostitu
ciao a tutti,
sto mettendo su un server (Sarge) con raid 1 (mdadm) con 2 dischi maxtor
sata da 230 GB.
Stavo facendo delle prove e mentre creavo (con dd) un file da 1 GB, ho
avuto un errore di I/O su un disco. Ho riavviato ma al resyncing sempre
il solito errore. Per ora ho settato il disco
1 - 100 di 106 matches
Mail list logo