e nepovedlo se mi ho rozbit, abych to nasledne mohl zkouset
>> > opravit).
>> Matne si vzpominam, ze pri upgradu 12 -> 13 jsem mel obdobny problemy.
>> Bohuzel si uz nepamatuju, jak jsem to vyresil. Vim, informace hodna
>> zastreleni.
>>
>> Nicmene zkus v bootpr
mohl zkouset
> > opravit).
> Matne si vzpominam, ze pri upgradu 12 -> 13 jsem mel obdobny problemy.
> Bohuzel si uz nepamatuju, jak jsem to vyresil. Vim, informace hodna
> zastreleni.
>
> Nicmene zkus v bootpromptu vsechno unloadovat (unload) a nahrat minulej
> kernel a o
Vim, informace hodna
zastreleni.
Nicmene zkus v bootpromptu vsechno unloadovat (unload) a nahrat minulej
kernel a opensolaris + zfs moduly. To by mohlo/melo nabehnout alespon v
single-user modu.
Pokud se nepletu, fbsd13 ma defaultni uz openzfs, ale nevim, jestli to
muze delat problemy. Jestli
<000.f...@quip.cz> wrote:
> On 06/08/2022 13:02, Radek Krejča wrote:
>
> > gpart show
> > => 34 488397101 ada0 GPT (233G)
> > 34 94 1 freebsd-boot (47K)
> > 128 488397007 2 freebsd-zfs (233G)
> >
On 06/08/2022 13:02, Radek Krejča wrote:
gpart show
=> 34 488397101 ada0 GPT (233G)
34 94 1 freebsd-boot (47K)
128 488397007 2 freebsd-zfs (233G)
=> 34 488397101 ada1 GPT (233G)
34 94 1 freebsd-boot
Ahoj,
Dne 06.08.2022 v 23:05 Jan Jurák napsal(a):
ahoj
predpokladam ze efi loader nemas moznost nastavit ze
abych rekl pravdu, to me nenapadlo se podivat, kouknu pri pristi
moznosti rebootu.
Dekuji
R
--
FreeBSD mailing list (users-l@freebsd.cz)
http://www.freebsd.cz/listserv/listinfo/use
ada0p2 ONLINE 0 0 0
> ada1p2 ONLINE 0 0 0
>
> errors: No known data errors
>
>
> a
>
> gpart show
> => 34 488397101 ada0 GPT (233G)
> 34 94 1 freebsd-boot (47K)
> 128
ta errors
a
gpart show
=> 34 488397101 ada0 GPT (233G)
34 94 1 freebsd-boot (47K)
128 488397007 2 freebsd-zfs (233G)
=> 34 488397101 ada1 GPT (233G)
34 94 1 freebsd-boot (47K)
128 488397007 2 fr
On 06/08/2022 09:47, Radek Krejča wrote:
Mam tedy dve otazky - jak se to mohlo rozbit, kdyz pri update jsem bez
problemu restartoval, od update jsem pak restartoval jeste jednou a vse
ok - server jsem prochazel, nezda se, ze by tam byl nekdo dalsi a nejak
zaskodnicil. A druha, dulezitejsi, jak
Ahoj,
v navaznosti na minuly thread mam taky problem, i kdyz trochu jiny. Mam
server nainstalovany od verze 9, od te doby ho uspesne aktualizuji do
dnesnich dni a pred par tydny jsem ho tez aktualizoval na posledni 13.1
- mimochodem duvod zfs je, ze v te dobe byl jediny, ktery zvladl tak
dojde k zavolani mount -a a tim se
primountoval puvodni Boot Environment (stara verze) pres aktualni root
filesystem, protoze tento oddil mel chybne nastaveno "canmount=on" (ZFS
property).
Takze vsechny dalsi rc skripty, ktere se spousti po mountcritlocal a
nacitaji nejake modu
Ze kdyz nabootuju do singleuser rezimu a vypisu si kldstat, tak tam jsou
nejake moduly uz nactene.
Ty napsane v loader.conf
A pak, asi kdyz se spusti rc skripty, se zacinaji natahovat dalsi moduly
Ano, nektere scripty si natahuji moduly.
a tam az vznikaji ty chyby.
Dobry tip, podivat se na
dalsi moduly
a tam az vznikaji ty chyby.
Dobry tip, podivat se na tohle vic a zkusit to rucne.
Nebo co dalsiho tam jeste muze byt za problem, co zpusoby vyse
popsanou chybu?
Mozna je to jen moje mala znalost ZFS, jak vseobecne znamo, my se nemame
radi, ale neni to tak, ze kdyz mas root na ZFS
bez reci ?
Nebo co dalsiho tam jeste muze byt za problem, co zpusoby vyse popsanou chybu?
Mozna je to jen moje mala znalost ZFS, jak vseobecne znamo, my se nemame
radi, ale neni to tak, ze kdyz mas root na ZFS, tak loader ve
skutecnosti nestartuje kernel ze ZFS (protoze s tim pracovat neumi
submenu "PC-BSD (sysUpgrade_11_3_20200328_001110) - 2020-03-28 00:11" {
menuentry "Normal Bootup" {
insmod zfs
search --no-floppy -s -l tank2
kfreebsd /ROOT/sysUpgrade_11_3_20200328_001110/@/boot/kernel/kernel
kfreebsd_loadenv
/ROOT/sysUpgrade_11_3_20200328_00111
Dan Lukes wrote:
> Zrejme mi unika duvod, proc trvas na importu. Ano, tim vznika potiz - bez
> predchoziho exportu import mozny neni.
Kdyz chces namontovat dataset (file system) z poolu, tak musi byt pool
importovany.
Kdyz se bootuje ze ZFS, tak se myslim ten pool importuje implicitne a
pak
hledal tu chybovou hlasku, tak jsem videl, ze to vypina procesy (napriklad
SSH), tak jsem zkusil ten shutdown skript a pustil se taky.
Co znamena "exportnuty" a k cemu je to dobry ?
Kdyz pripojis novy pool (napriklad USB se ZFS), tak se automaticky neimportuje
(“nenamountuj
to bude tvarit jako jiny host, ale oba
>> hosty maji stejne /etc/hostid
>> Nevim jak zabezpecit, aby po tom rerootu system povazoval ten base pool za
>> exportnuty.
>
> Ted jsem se ztratil, nejspis proto, ze ZFS preci jen nepouzivam. CO znamena
> "exportnuty&qu
ilesystemy s
nastavenym mountpoint.
To je, jestli se nepletu, standardni chovani ZFS (respektive zfs mount
-a). Takze to mu asi vycitat nelze. Jestli se ti to nelibi, nesmis mit
mountpoint nastaveny jako property svazku a mountovat si jen to co chces
a tehdy, kdyz to chces, pomoci 'zfs
.
Ale to myslim, ze moje reseni splnuje taky. Kdyz si nekdo pocitac odnese, tak
mu to vzdalene neodemknu (neprihlasim se). Kdyz nekdo ziska klic i tak heslo.
Proste to neni tak bezpecne, jako Tvoje reseni, ale pro moje potreby dostacuje.
> Me se nelibi ZFS ;-)
To tady asi vetsina uz vi ;-). Ta
Jindrich Fucik wrote on 30. 5. 2019 13:22:
Že se tak ptám, ono je možné odmontovat fs, když je v něm namontovaný jiný fs?
Moc si to nedovedu představit.
Zvlastni. A ze je tu rec o odmountovani rootu a namountovani jinyho te
ze sna nebudi ? ;-)
Ale zpatky k tomu co teda vlastne "reboot -r" ud
Že se tak ptám, ono je možné odmontovat fs, když je v něm namontovaný jiný fs?
Moc si to nedovedu představit.
-- Původní e-mail --
Od: Dan Lukes
Komu: FreeBSD mailing list
Datum: 29. 5. 2019 13:55:40
Předmět: Re: Root Remount (reroot) ze ZFS na jine ZFS
V popisu projektu se
...Nekdo s
fyzickym pristupem a znalostmi by mohl upravit tu nezabezpecenou cast a pri
vzdalenem odemykani odchytit klic a heslo - nebo upravit kernel.
Ano, toho se obavam. Proto ten boot z flash ktera ma sama zabezpeceni.
Ale je pravda, ze ja pro rootovske svazku zasadne nepouzivam ZFS.
Me
ve /var/run, pripadne syslogd v /var/log.
Muzu ukoncit vetsinu aplikaci. Ale radsi bych byl kdyby se o to postaral system.
Nebo je mozne vytvorit nejaky shutdown script, ktery se zavola ve vhodne chvili
pri tom reboot -r? Ja se moc do toho, jak to funguje pri vypinani, nevyznam.
>> Mam ne
nesifrovany ZFS pool (base), do ktereho nabootuju, tam pripojim sifrovany
ZFS pool (private) a pak do nej rerootuju.
Jen ze zvedavosti - takze to mas tak, ze pocitac nastartuje jen pokud je
pritomna obsluha, ktera zada heslo ?
Ja delal neco podobneho, ale nemaje o existenci reroot zadne poneti, tak
, predelat rootfs napriklad z
UFS na ZFS a rerootovat zpet
(https://people.freebsd.org/~lidl/blog/re-root.html)
- da se rerootovat na sifrovany filesystem, predem odemceny pres geli attach
Ted zkousim ten posledny pripad. Mam nesifrovany ZFS pool (base), do ktereho
nabootuju, tam pripojim sifrovany
Zdravim,
chystam se na instalaci nove verze FreeBSD 11.1R a uvazuji, ze bych soucasne
s tim take presel z doposud pouzivaneho UFS na ZFS. Dost jsem si toho o ZFS
precetl, ale i tak mam stale nejake dotazy. :-)
Predne bych se ale chtel zeptat na soucasne zkusenosti se ZFS. V minule dobe
me od
Pro zacatek bych doporucil dotaz smerovat do spravne konference :)
Kaminar wrote on 2017/08/02 19:32:
Predne bych se ale chtel zeptat na soucasne zkusenosti se ZFS. V minule dobe
me od ZFS dost odrazovaly ruzne zvesti, ktere se o ZFS sirily na webu. Jako
treba ruzne popisy problemu s
Petr Fischer wrote on 2017/02/16 16:01:
Na pravidelné dělání (a promazávání) snapshotů mě nejlepší přišel "zfsnap" (lze
ho volat z cronu nebo z /etc/periodic.conf). Dělá klasika snapshoty
monthly/weekly/daily/hourly (dle konfigurace).
Tak ja se jen pridavam na stranu spokojenych uzivatelu zfs
třeba 3 hodiny starý
snapshot a pokud ne, znamená to, že se někde něco pokazilo -> buzerace mejlem.
pf
> Nazdar ve spolek!
>
> Potřeboval bych přes cron dělat pravidelné "zálohy" s rotací pomocí ZFS
> snapshotů.
> Pokud někdo něco takového děláte, jaký nástroj na to pou
> Potřeboval bych přes cron dělat pravidelné "zálohy" s rotací pomocí ZFS
> snapshotů.
> Pokud někdo něco takového děláte, jaký nástroj na to používáte?
Pouzivam vlastny skript (pozri nizsie), ktory spustam cez cron:
# ZFS Backups
2 1-23* * * r
Nazdar ve spolek!
Potřeboval bych přes cron dělat pravidelné "zálohy" s rotací pomocí ZFS
snapshotů.
Pokud někdo něco takového děláte, jaký nástroj na to používáte?
Jsou s něčím vyloženě dobré zkušenosti nebo je naopak dobré se něčemu vyhnout?
V portech jsem našel např. zfstools,
r, ktery nedela
> nic, jen ceka
Princip je teda jednoduchy:
1) Na zaciatku urobit plnu zalohu
2) Denne urobit inkrementalnu zalohu medzi vcerajsim snapshotom a dnesnym
snapshotom
Trosku ma metu tie volumy. V terminologii ZFS je volume block device. Napriklad
volume pre swap. Ale nikdy som ich ne
jsem (pro zkopirovani posledniho existujiciho snapshotu)
/sbin/zfs send -Rv `/sbin/zfs list -t snapshot | /usr/bin/grep
"/POOL@VOL" | /usr/bin/cut -f1 | /usr/bin/cut -d " " -f1 | /usr/bin/tail
-n 1` > /backup/zfs/zfsdata.pool
Bohuzel se mi prenasel vzdy cely volume. Pokud
Jan Dušátko wrote:
> Uz nejakou dobu se snazim resit inkrementalni kopie ZFS
> snapshotu na zalozni server, bohuzel vzdy se mi zacne kopirovat
> kompletni volume nebo dataset. Hledam zpusob, jak zajisti kopirovani jen
> a pouze daneho snapshotu a minimalizovat prenosy.
Snapshotom mys
Jan Dušátko wrote on 11/26/2015 19:36:
Ahoj
mam otazku. Uz nejakou dobu se snazim resit inkrementalni kopie ZFS
snapshotu na zalozni server, bohuzel vzdy se mi zacne kopirovat
kompletni volume nebo dataset.
No kdybys aspon naznacil, jakym prikazem to delas...
Tohle by melo fungovat
zfs send
Ahoj
mam otazku. Uz nejakou dobu se snazim resit inkrementalni kopie ZFS
snapshotu na zalozni server, bohuzel vzdy se mi zacne kopirovat
kompletni volume nebo dataset. Hledam zpusob, jak zajisti kopirovani jen
a pouze daneho snapshotu a minimalizovat prenosy.
Mate s tim nekdo zkusenosti?
Diky
Ahoj,
potrebuji updatovat stroj, kde mam staricke BSD, a to jen z duvodu, ze jsem
kdesi sehnal patch pro konfiguraci zfs.
Duvodem je, ze potrebuji kvuli ipv6 mit moznost k jednomu zfs svazku dat vice
siti u sharenfs.
Kdyz koukam do zdrojaku, tak se zda, ze ani v 10.2 tato moznost neni, ale
Gabriel wrote:
Ale jinak - ted to sice bootuje, ale nedobehne to, jelikoz mi to nadava
na ad0 i ad1: CFA ERASE timeout / retrying. Googlim a moc toho k teto
nove feature neni, jen to pry ma podporovat "TRIM" na CF kartach, coz
je, bohuzel, i muj pripad. ad0 i ad1 jsou CF karty.
Predevsim to jso
No, tak to taky muze bejt nejaka chyba v soucasnem gpart. Ale jak ZFS
nikde nepouzivam, tak to sam neozkousim ...
Mozna, jelikoz jemu se nejspis nelibi ad0 versus po novem ada0.
Ale jinak - ted to sice bootuje, ale nedobehne to, jelikoz mi to nadava
na ad0 i ad1: CFA ERASE timeout / retrying
Je to konfigurace na prvni pohled mozna lehce zvlastni,
Ani ne, tak se to "spravne" delalo davno pred ZFS. Jen jsem si nebyl
jistej, ze to tak mas, protoze pro UFS se dost dlouho doporucovala
konfigurace, kdy se bootovalo z jednoho svazku disku, co byl soucasne v
RAIDu - a to byl ask
Nejsme vubec expert na ZFS, ale k tomu co chci napsat to asi az tak
nepotrebuju.
Nejak se z popisu vyparilo jakej je vlastne vztah ad0 a ad1. Nemas
tam treba nejakej RAID 1 (mirror), kterej's nam zatajil ?
Mezi particema freebsd-zfs je raidovy vztah, ano, jsou v ZFS mirroru.
Na ty a
Gabriel wrote:
Moje konfigurace je 2x USB 4GB disk, na tom vytvorena GPT a dve partice, viz:
# gpart show
=> 34 7806893 ad0 GPT (3.7G)
34 1281 freebsd-boot (64k)
162 78067652 freebsd-zfs (3.7G)
=> 34 7806893 ad1 GPT (3.7G)
34 12
On Sat, 13 Jun 2015 11:29:31 +0200, Gabriel wrote:
Problem nastal pri instalaci noveho gptzfsboot, kdy mi to hlasi:
# gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 ad0
gpart: param 'arg0': Invalid argument
# gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 ad1
gpart: param 'arg0': I
64k)
162 78067652 freebsd-zfs (3.7G)
=> 34 7806893 ad1 GPT (3.7G)
34 1281 freebsd-boot (64k)
162 78067652 freebsd-zfs (3.7G)
Udelal jsem klasicky make buildworld, make buildkernel, installkernel,
installworld, mergemaster, tak jako vzdy.
P
Ahoj
Osobne bych kompresi doporucil pouze pro log soubory (stejne jsou ve vetsine
pripadu read only). S dobrym nastavenim a denni rotaci (kvuli bobtnani a
obtizne praci s velkymi komprimovanymi soubory) to skutecne muze usetrit
prostor a vyuzit CPU.
Co se tyka ZFS. Prakticka zkusenost mi rika
Marek SOUDNY wrote, On 10/13/2014 20:18:
Objem dat, se kteryma pracuju, opravdu zadnou kompresi nepotrebuje.
Nicmene toho o ZFS moc nevim, takze jsem mozna udelal chybu, ale faktem
je, ze FreeBSD na ZFS se 4GB RAM beha normalne a nebal bych se toho.
U te komprese nejde jen o to, jestli tim
vpodstate defaultni instalace PC-BSD. Slape to pekne. Desktop je KDE.
Opet beh bez problemu - seamonkey/terminaly/nevim-co-jeste.
Objem dat, se kteryma pracuju, opravdu zadnou kompresi nepotrebuje.
Nicmene toho o ZFS moc nevim, takze jsem mozna udelal chybu, ale faktem
je, ze FreeBSD na ZFS
GB delat nebudou a stejne tak male jednotky GB
staci na bezne aplikace. Takze na tech 4G by to klidne
mohlo byt docela pekne svizny, ne pres ZFS, ale diky nemu :)
Co tak pozoruju, nejvetsi bolehlav desktopu dneska je web - prohlizec je
schopnej sezrat takovy mnozstvi pameti
ze to az hezky neni
Miroslav Prýmek wrote, On 10/13/2014 14:17:
On 10/13/2014 01:24 PM, Miroslav Lachman wrote:
a jakou ocekavas rychlost disku atd.
Tady by me zkusenosti z desktopu celkem zajimaly, protoze teoreticky by
ZFS mohlo byt
subjektivne i sviznejsi - to cachovani je tam fakt slusne udelany.
Hodne
On 10/13/2014 01:24 PM, Miroslav Lachman wrote:
a jakou ocekavas rychlost disku atd.
Tady by me zkusenosti z desktopu celkem zajimaly, protoze teoreticky by
ZFS mohlo byt
subjektivne i sviznejsi - to cachovani je tam fakt slusne udelany.
M.
--
FreeBSD mailing list (users-l@freebsd.cz)
http
Roman Nádhera wrote, On 10/13/2014 10:12:
Verze 10 se chce instalovat na souborovy system ZFS a vubec se mnou
nechce diskutovat o necem jinem (nebo jsem neco prehledl).
V instalatoru se da prepnout do konzole, vytvorit si rozdeleni disku i
formatovani podle sveho (takze klidne misto GPT
On 10/13/2014 12:46 PM, Vladimír Drgoňa wrote:
Na domácom miniserveri s Atomom D525 a 4GB RAM mi bez problémov niekoľko
rokov šlapalo FreeBSD na ZFS.
Ja mam doma na stejne desce ZFS s 2G RAM, nic jsem netunil a zadnej
problem nikdy nenastal.
A to jsem na tom dokonce jednu dobu provozoval
; podobneho?
>>
>
> FreeBSD se porad da instalovat na UFS a da se udrzet minimalisticke,
> na tom se nic
> s desitkou nezmenilo.
>
> S PC-BSD neporadim, nikdy jsem ho nezkousel, takze z praktickeho
> hlediska to bude
> muset okomentovat nekdo jiny, kazdopadne jsou imh
desitkou nezmenilo.
S PC-BSD neporadim, nikdy jsem ho nezkousel, takze z praktickeho
hlediska to bude
muset okomentovat nekdo jiny, kazdopadne jsou imho dve cesty:
1. klidne to zkusit i se ZFS. 4G RAM jsou v pohode. ZFS si z nich sice
neco ukousne, takze
na aplikace zbyde min, ale desktop by mel
Dobry den,
vazeni pratele, jak tak koukam na posledni vyvoj BSD, smeruje to spise k
velkym serverum, nez nejakym mini aplikacim.
Donedavna jsem mel PC-BSD 9.0 na tomhle:
http://www.alza.cz/shuttle-xs35gtv2-d2146613.htm
Verze 10 se chce instalovat na souborovy system ZFS a vubec se mnou
nechce
On 11/21/13 09:25, Jan Dušátko:
Po preneseni po siti do jineho stroje (SSH ale pouze RC4/ARCFOUR pro
maximalni zvyseni vykonu)
scp -c arcfour base.20131120.pool cil:/volnyprostor
Tak to ja bych asi jeste zakazal kompresi. Obzvlast jestli prenasis uz
data komprimovana.
Dan
--
FreeBSD maili
nejakych 52.7GB dat
- disky 5400 RMP puvodne v zrdcadle, diky me hlouposti R0/concat
- CPU i7, pamet 16GB
Pro svazek base jsem vytvoril snapshot:
zfs snapshot -r base@base.20131120
a nagraboval jsem veskere parametry:
zpool get all base >base.properties
Nasledne jsem si ulozil snapshot stranou:
Takze po dlouhem googleni a diskusi s lidmi, co maji podstatne vetsi
zkusenost s ZFS nez ja jsou tu nasledujici moznosti:
1) Vytvorit nove zrdcadlo proti dostatecne velke kapacite (souctu vsech
disku)
2) Udelat ZFS snapshot, zazalohovat ho (presunout na jiny pool) pomoci
backup/restore
3
On 11/20/13 17:47, Jan Dušátko:
Setkal jsem se dnes diky sve hlouposti se zajimavym problemem.
Podobny problem nekoho jineho, ale nevidim tam zadnou zazracnou radu:
http://comments.gmane.org/gmane.os.solaris.opensolaris.zfs/32180
Dan
--
FreeBSD mailing list (users-l@freebsd.cz)
http://w
Ahoj,
Setkal jsem se dnes diky sve hlouposti se zajimavym problemem. Postup vyvoje
byl nasledujici:
- v ZFS mirroru mi vypadl jeden disk
- vymenil jsem ho a dal tam novy, vetsi
- misto ZFS replace jsem dal ZFS add ... vysledkem je concate nikoliv mirror
- momentalne se snazim setrepat data na
On Mon, 4 Nov 2013 13:22:52 +0100, Marián Černý wrote:
Ahojte,
vsimol som si zaujimave spravanie chmod-u na FreeBSD 9.2. Mam adresar
log, ktory vlastni uzivatel1 a ma prava 777:
drwxrwxrwx 2 uzivatel1 developers 4 Nov 4 11:05 log
Ahoj,
posli vypis ls -lao pre ten adresar.
Diky,
Gabri
Cejka Rudolf wrote:
>>>> Netusite niekto, ci je mozne ACL na ZFS vypnut?
>>
>> Zdá se, že to podstatné je v ZFS zadrátované, viz
>> ...
>
> Z čehož mi vyplývá, že ACL u ZFS vypnout nejdou, nebo aspoň ne pro chmod
> dostatečným způsobem, a že je to t
Cejka Rudolf wrote (2013/11/07):
> Miroslav Lachman wrote (2013/11/07):
> > Marián Černý wrote:
> > > Miroslav Lachman wrote:
> >
> > [...]
> >
> > > Netusite niekto, ci je mozne ACL na ZFS vypnut?
>
> Zdá se, že to podstatné je v ZFS zadrá
Miroslav Lachman wrote (2013/11/07):
> Marián Černý wrote:
> > Miroslav Lachman wrote:
>
> [...]
>
> > Netusite niekto, ci je mozne ACL na ZFS vypnut?
Zdá se, že to podstatné je v ZFS zadrátované, viz
/usr/src/sys/cddl/contrib/opensolaris/uts/common/fs/zfs/zfs_vnops.c:
Marián Černý wrote:
Miroslav Lachman wrote:
[...]
Netusite niekto, ci je mozne ACL na ZFS vypnut?
Jedine si zkusit pohrat s kombinacemi aclinherit a aclmode (pomoci 'zfs
set', viz man zfs), ale ja to nikdy nezkousel.
Mirek
--
FreeBSD mailing list (users-l@freebs
Marián Černý wrote:
> Mimochodom aj ked som pustil "tunefs -a enable" na tom UFS filesysteme, tak
> ten pathconf() vracia FALSE.
Ked sa pouzije "tunefs -N enable" na UFS, tak pathconf() pre _PC_ACL_NFS4
vracia TRUE pre a sprava sa to rovnako ako na ZFS - sna
oji 9.2-RC3 a
> 9.2-RC4 s UFS a tam to nedela.
> Zkusil jsem to same na starsim stroji (8.x) se ZFS a ani tam to nedela. Takze
> bych to prisuzoval kombinaci novy system + nova verze ZFS.
Tak som sa dopatral, ze za to asi mozu ACL.
% truss chmod 755 /var/log
...
stat("/var/lo
to nerobi. Pripadne ci to nesposobuje ZFS, ten sme predtym tiez
nepouzivali.
Nemam bohuzel nikde 9.2-RELEASE, mam tu na testovacich stroji 9.2-RC3 a
9.2-RC4 s UFS a tam to nedela.
user1@sm ~/> uname -srmi
FreeBSD 9.2-RC4 amd64 GENERIC
user1@sm ~/> ls -ld /var/log
drwxr-xr-x 7 root wh
menit prava, aj ked nedoslo k zmene:
log: 040777 [drwxrwxrwx ] -> 040777 [drwxrwxrwx ]
Netusite niekto, ci nedoslo vo FreeBSD 9 k tejto zmene spravania chmod-u? Na
FreeBSD 7 a 8 to nerobi. Pripadne ci to nesposobuje ZFS, ten sme predtym tiez
nepouzivali.
Dakujem,
Marian
--
FreeBSD mailing l
Ahoj
Zkousel nekdo zmenit checksum algoritmus na svazku, ktery jiz obsahuje data?
Potrebuji zmenit algoritmus z fletcher2 na fletcher4. Melo by to jit pres
docasne vypnuti checksumu, ale jeste jsem to nedelal. Mate nekdo zkusenost?
Diky, Honza
Nastaveni svazku - zfs get all data:
data type
ja mazu snapshoty pomoci zfSnap -D zatim mi to nelehlo.
mam se zfs jiny problemy - musim vypnout prefetch aby to nebylo
abnormalne pomale pri vyssim io zatizeni a efektivneji to vyuzivalo
pamet. Taky se mi stava ze pri vysim zatizeni tam visi ulohy desitky
sekund ve stavu tx->tx. To je zn
Ne, to bylo predtim, nez jsem tam ten swap nastavil. Nastesti uz se to
rozjelo, jen tomu trvalo desne dlouho, nez se to vzpamatovalo po rebootu
(asi tam probihala nejaka interni kontrola, postupne se pripojovaly zfs
svazky, kontroloval jsem to mountem).
Tohle uz nechci zazit. Jde nejak
to pada na out of swap space i s tema 56 GB swap?
--
FreeBSD mailing list (users-l@freebsd.cz)
http://www.freebsd.cz/listserv/listinfo/users-l
Tak ted trochu popela na hlavu - ten system je 64bit, ma to 8 GB ram.
Povedlo se mi vyhodit SSD z poolu a pridat jako swap, takze mam tam 8 GB
ram + 56 GB swap. Co dalsiho muzu udelat?
Diky predem.
Gabriel
--
FreeBSD mailing list (users-l@freebsd.cz)
http://www.freebsd.cz/listserv/listinfo/use
Ahoj vsem,
narazil jsem na velice osklivy problem se ZFS na FreeBSD 8.3 release
32bit, potreboval jsem promazat stare snapshoty, tak jak jsem to jiz
delal nekolikrat:
# zfs destroy -r pool@snapshot_aabbcc
Najednou system prestal odpovidat a tak jsem vlezl na konzoli, kde to
hlasilo:
pid
Ahoj,
jelikoze dokumentace je porad stejna a mne prijde, ze moje doufani bude opet
marne, protoze pri testech mi to neslo, ale pro jistotu. Uz konecne v 9.1
zapracovali moznost pridavat vice siti k datasetu pres sharenfs nebo opet budu
muset patchovat timto http://www.freebsd.org/cgi/query-pr.
Ahoj,
> Pokud je /camdata top level dataset a nad nim, nebo vedle nej, uz zadny
> jiny neni, vsechno ostatni datasety jsou jeho potomci, tak muzes urcite
> pouzivat i tu povodni variantu se zfs get.
> Pak si ale dost dobre nedovedu vysvetlit, kam ti mizi to dostupne
> misto, kdyz
Milan Cizek wrote:
Takže celkové "dostupné/maximální a využitelné" místo v poolu bych měl tedy
brát ze zpool get size poolname?
Tady mi trochu vadilo, že to nedokáže vypsat jako raw (k/bytes), takže se to
bude muset parsovat a převádět. Proto jsem se původně přiklonil z zfs get.
quot; místo v poolu bych měl tedy
brát ze zpool get size poolname?
Tady mi trochu vadilo, že to nedokáže vypsat jako raw (k/bytes), takže se to
bude muset parsovat a převádět. Proto jsem se původně přiklonil z zfs get.
Milan
--
FreeBSD mailing list (users-l@freebsd.cz)
http://www.freebsd.cz/listserv/listinfo/users-l
Milan Cizek wrote:
Ahoj,
pokouším se kreslit graf maximálního/volného/obsazeného místa na ZFS poolu,
ale funguje to nějak dosti podivně.
http://devel.chvalsiny.net/usage-month.png
zfs get v podstate nesleduje misto na celem poolu, ale az na datasetu
(filesystem)
Na urovni poolu pracuje
Ahoj,
pokouším se kreslit graf maximálního/volného/obsazeného místa na ZFS poolu,
ale funguje to nějak dosti podivně.
http://devel.chvalsiny.net/usage-month.png
Jde o to snižující se maximum, kde se ani neprojevuje skutečný
úbytek-odstranění dat. Obsazené místo řekl bych odpovídá skutečnosti
On Thu, Jan 24, 2013 at 08:56:09PM +0100, Milan Cizek wrote:
> Ahoj,
>
> > zdar, presne tak, navic ZFS filesystemy jsou extremne levny,
> > takze pokud je mozny to delat pres podstromy, tak smazani filesystemu
> > je pak otazka sekund.
>
> tímto myslíte n
> tímto myslíte např. zfs destroy tank/TEST/asd?
>
> Bez ohledu na množství obsažených dat, bude smazání velmi rychlé?
> Určitě je to cesta a nebude problém skripty upravit. Jen se ptám, nemám s
> tím konkrétní zkušenosti.
Ahoj, ja to tak sveho casu resil, preplnilo se mi t
Ahoj,
> zdar, presne tak, navic ZFS filesystemy jsou extremne levny,
> takze pokud je mozny to delat pres podstromy, tak smazani filesystemu
> je pak otazka sekund.
tímto myslíte např. zfs destroy tank/TEST/asd?
Bez ohledu na množství obsažených dat, bude smazání velmi rychlé?
mám ZFS úložiště (defaultní nastavení) a potřebuji dost často odmazávat
stará data - miliony malých souborů. Momentálně mažu pomocí rm -rf, běh
mazacího skriptu trvá ale několik hodin a dost to stroj vytíží. Je nějaká
možnost mazat efektivněji a rychleji?
Jenom pripominam, ze se to strasne
On Thu, 24 Jan 2013, Dan Lukes wrote:
> On 01/24/13 16:55, Milan Cizek:
>> mám ZFS úložiště (defaultní nastavení) a potřebuji dost často odmazávat
>> stará data - miliony malých souborů. Momentálně mažu pomocí rm -rf, běh
>> mazacího skriptu trvá ale několik hodin a dos
On 01/24/13 16:55, Milan Cizek:
mám ZFS úložiště (defaultní nastavení) a potřebuji dost často odmazávat
stará data - miliony malých souborů. Momentálně mažu pomocí rm -rf, běh
mazacího skriptu trvá ale několik hodin a dost to stroj vytíží. Je nějaká
možnost mazat efektivněji a rychleji?
Kdysi
Ahoj,
mám ZFS úložiště (defaultní nastavení) a potřebuji dost často odmazávat
stará data - miliony malých souborů. Momentálně mažu pomocí rm -rf, běh
mazacího skriptu trvá ale několik hodin a dost to stroj vytíží. Je nějaká
možnost mazat efektivněji a rychleji?
Milan
--
FreeBSD mailing list
Ahoj,
díky všem za rady. Dnes úspěšně přeinstalováno na 9.0 amd64, zatím vše běží.
RAMky je aktuálně 3GB, žádné ZFS options nemám - vše je default.
> Asi pro tebe bude jedinou cestou to vypnuti periodic scriptu, ktery
> pravdepodobne zpusobuje to spotrebovani veskere pameti. Jinak to na
&g
ho
nedeje. Dokud vychazely nove verze, tak se pomerne rychle dostavaly do
FreeBSD.
Na druhou stranu, nektere opravy se z FreeBSD prenaseji do Illumosu
(ktery slouzi jako referencni pro ostatni forky Solarisu / ZFS) a
napriklad pouziti TRIMu pochazi prave od vyvojaru FreeBSD.
Dokumentace nesedela,
ra do toho. Pravdepodobne dojdes
k tomu, k cemu jsem po x mesicich hrani dosel ja, a to k tomu, ze zfs nema na
i386 co delat, ze vyladis promenne, povypinas scripty, atd. pro konkretni
situaci a za tyden prijde nekdo, kdo tam nakopci jina data a umre ti to znovu.
Pokud chces preci jen vetsi spol
Vladimír Drgoňa wrote:
[...]
Áno, to je pravda, ale vychádzam zo svojich skúseností. V staršom
notebooku (Intel DualCore+3 GB RAM /viac sa nedá/, gentoo amd64+zfs+KDE)
mám trošku lepšiu SD kartu v expresscard slote, notebook je po
niekoľkých dňoch od rebootu oveľa svižnejší ako po reštarte. Keď
Dňa 11.11.2012 13:13, Miroslav Lachman wrote / napísal(a):
> Vladimír Drgoňa wrote:
>> Ďalej by pomohlo aj nasadenie l2arc, aspoň na metadata:
>> zfs set ssecondarycache=metadata zroot
>> Dočasne by mohol pomôcť aj rýchly (aspoň 16GB) USB-kľúč. Samozrejme, ten
>> do p
Vladimír Drgoňa wrote:
Ďalej by pomohlo aj nasadenie l2arc, aspoň na metadata:
zfs set ssecondarycache=metadata zroot
Dočasne by mohol pomôcť aj rýchly (aspoň 16GB) USB-kľúč. Samozrejme, ten
do pol roka zlikviduješ, ale za ten čas pomôže. Keď sa poškodí neprídeš
o dáta (je to iba cache).
S
On Sun, 11 Nov 2012 08:59:19 +0100, Vladimír Drgoňa wrote:
Ahoj, tie parametre by som nastavil možno takto:
FreeBSD 8.3-RELEASE-p4 #0
vm.kmem_size="1536M"
vm.kmem_size_max="4G"
vfs.zfs.arc_max="1G"
vfs.zfs.vdev.cache.size="16M"
Ahoj,
po vlastnej skusenosti by som rad upozornil na tieto mozne
Ahoj, tie parametre by som nastavil možno takto:
FreeBSD 8.3-RELEASE-p4 #0
vm.kmem_size="1536M"
vm.kmem_size_max="4G"
vfs.zfs.arc_max="1G"
vfs.zfs.vdev.cache.size="16M"
Ďalej by pomohlo aj nasadenie l2arc, aspoň na metadata:
zfs set ssecondarycache=m
Milan Cizek wrote:
mohl bys mi případně poradit co zvětšit? Bez ZFS spotřeba nešla přes 512MB
RAM.
Každopádně RAMka je s tímto nastavením využitá na 90%. (tak asi ani
zvětšovat nemůžu)
RAM bude vzdycky vyuzita na 90%-100% - a je to tak dobre. K cemu je
nevyuzita RAM? To by tam pak nemusel
Ahoj,
> Provozuji to na Atomech se 4GB RAM, skutecne s tim byvaji problem (pad
> cca 1 za pul roku), souvisi to tezce s jakymkoliv prohledavanim
> adresarove struktury. Navic, cim vetsi pocet souboru, tim vetsi
> problem. Pokud tam mam obrazy disku, neni problem. Predstava nasypat na
> to nejake m
> (tipuju, ze to pada s hlaskou "kmem mamp too small", ale to vazne jen
> tak tipuju. Ten tuning v loader.conf mi prijde az moc priskrceny.
mohl bys mi případně poradit co zvětšit? Bez ZFS spotřeba nešla přes 512MB
RAM.
Každopádně RAMka je s tímto nastavením využitá na 9
1 - 100 z 288 matches
Mail list logo