On Wed, Oct 02, 2002 at 08:13:58PM +0200, Micha Wiedenmann wrote: > Hallo Christoph Claus,
Hallo Micha! > * On 2002-10-01 Christoph Claus wrote: > >mkisofs ist nicht zwingend nötig, da man die afio-Datei einfach roh > >auf die CD brennen kann, und dann mit "afio -[i|t|r|p] <Optionen> > >/dev/cdrom" zugreifen kann. > > Aber dann kommt man an anderen System nicht mehr an das Backup, deshalb > will ich das so normal wie möglich machen. Das lass ich nur für DOS/WIN** gelten, und da gibt es so und so kein afio, womit das Backup nutzlos wäre... ein Nachteil ist, das gebe ich zu, die lange Zugriffszeit auf Einzeldateien, aber das gleicht die Platzersparnis wieder aus (2-3 CDs mit ISO und Einzeldateien, 1 (2) mit afio und gzip) > Okay, Danke! Wozu benötigst du -multi? Um, wenn noch Platz auf der CD ist (was bei mir so ist), Incremental Backups hintendran brennen zu können. > Mir ist neulich aufgefallen, dass > das Archiv 684 M groß ist. Ist das jetzt eine optische 1000 Bit =? 1024 MB > Täuschung, oder hat das mit -s 325000x zu tun? Du brennst ja gleich > weiter, stört es da, wenn man -b von 2048 auf z.B. 5 MB setzt? man afio :) -b ist die Blockgröße, also 2048 Byte, -s die Größe einer CD (oder eines Tapes, oder was auch immer), 325000x bedeutet: 325000 mal Blockgröße -- ist für CD-Brenner nicht unbedingt so nötig, man kann AFAIK auch gleich -s 650m angeben (für 650 MB Rohlinge). Bei mir funktionierts wie geschrieben, und -- Don't fix it if it ain't broken! > >> Kann es sein, dass man das erstellte Archiv nur mit den gleichen > >> Kommandozeilenoptionen bearbeiten kann, mit denen man es erstellt > >> hat? > > > >Zumindest ist (im obigen Beispiel) -Z wieder nötig, um zu > >dekomprimieren. > > Mit welchen Optionen kannst du -r (list table-of-contents) bzw. -r > (verify archive against filesystem) aufrufen? Bei meinen Tests hat das > _nur_ mit -b 2048 -s 350000x funktioniert! Kann ich nicht bestätigen, habs grade nochmal probiert: lux:~> afio -t -Z /dev/cdrom . lost+found usr usr/lost+found usr/bin [...] > Gruß und Dank, Micha > > >[1] Wenn Du Buffer noch größer brauchst, mußt Du zuerst in > >/proc/sys/kernel/shmmax einen größeren Wert (in Byte) eintragen. > > Warum? Was ist shm? SHared Memory. Aus /usr/src/<kernelsource>/Documentation/sysctl/kernel.txt: > shmmax: > > This value can be used to query and set the run time limit > on the maximum shared memory segment size that can be created. > Shared memory segments up to 1Gb are now supported in the > kernel. This value defaults to SHMMAX. Grüße Christoph P.S. Bitte schicke *immer* eine Kopie Deiner Mail an die Liste! -- Die letzten Worte zweier Löwenbändiger: "Wie? - Ich dachte du hättest sie gefüttert." -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]