On Thu, Apr 21, 2005 at 04:34:55PM +0200, Stefan Alfredsson wrote: > Marcus Rejås said: > > Jag skulle använda tar även om det kan bli lite meckigt. Med lite > > planering brukar det dock gå bra. Att köra dd på ett system som är igång > > går inte på ett filsystem som är i drift (i alla fall inte om det är > > skrivbart) eftersom en exakt kopia tas av disken så kommer det att bli > > inkonsistens i det nya filsystemet (på samma sätt som det blir det om du > > drar ur sladden till maskinen).
Värre, faktiskt. När du kopierar med t.ex. partimage eller dd så läser du av disken sekventiellt medan den ändras i okänd ordning; alltså blir olika områden i din kopia från olika tider, så en journalreplay är inte tillräckligt för att garantera konsistens. > dumpmaskin# ssh master tar --exclude proc -cf - / | gzip > dumpen.tgz > > (låt dumpmaskinen gzippa istället för master ifall den har bättre för sig > att använda cpu-cykler till gzippning. ssh-komprimeringen kommer funka > ganska bra på datan ändå gissar jag). Eh.. det där är utan att be ssh komprimera, och sshs komprimering är zlib, exakt samma som i gzip. Vill du ha snabbare kan du använda lzop. > Kolla även in frisbee, imagezip, imageunzip för imagedumpande; > http://www.emulab.net/software.php3 .. ungefär som dd, fast med kunskap om > filsystemets utseende. Stödjer även multicast-distribution (a' la > ghost(tm)), linux, freebsd, samt visst ntfs-stöd. Dock är det fortfarande > bra om filsystemen i fråga inte är monterade för att slippa få > inkonsistens i dumpen. Låter som frontends till partimage. systemimager är en annan. -- PGP fingerprint = 9242 DC15 2502 FEAB E15F 84C6 D538 EC09 5380 5746
signature.asc
Description: Digital signature