On Thu, Apr 21, 2005 at 04:34:55PM +0200, Stefan Alfredsson wrote:
> Marcus Rejås said:
> > Jag skulle använda tar även om det kan bli lite meckigt. Med lite
> > planering brukar det dock gå bra. Att köra dd på ett system som är igång
> > går inte på ett filsystem som är i drift (i alla fall inte om det är
> > skrivbart) eftersom en exakt kopia tas av disken så kommer det att bli
> > inkonsistens i det nya filsystemet (på samma sätt som det blir det om du
> > drar ur sladden till maskinen).

Värre, faktiskt. När du kopierar med t.ex. partimage eller dd så läser
du av disken sekventiellt medan den ändras i okänd ordning; alltså blir
olika områden i din kopia från olika tider, så en journalreplay är inte
tillräckligt för att garantera konsistens.

> dumpmaskin# ssh master tar --exclude proc -cf - / | gzip > dumpen.tgz
> 
> (låt dumpmaskinen gzippa istället för master ifall den har bättre för sig
> att använda cpu-cykler till gzippning. ssh-komprimeringen kommer funka
> ganska bra på datan ändå gissar jag).

Eh.. det där är utan att be ssh komprimera, och sshs komprimering är
zlib, exakt samma som i gzip. Vill du ha snabbare kan du använda lzop.

> Kolla även in frisbee, imagezip, imageunzip för imagedumpande;
> http://www.emulab.net/software.php3 .. ungefär som dd, fast med kunskap om
> filsystemets utseende. Stödjer även multicast-distribution (a' la
> ghost(tm)), linux, freebsd, samt visst ntfs-stöd. Dock är det fortfarande
> bra om filsystemen i fråga inte är monterade för att slippa få
> inkonsistens i dumpen.

Låter som frontends till partimage. systemimager är en annan.

-- 
PGP fingerprint = 9242 DC15 2502 FEAB E15F  84C6 D538 EC09 5380 5746

Attachment: signature.asc
Description: Digital signature

Till