On 2020-11-04 12:09 p.m., Tim Sattarov wrote:
> Приветствую, Debian сообщество
>
> решил обновить железо на домашней файлопомойке/медиасервере.
> Памяти там 32 гига, не ECC, обычной.
> достаточно слотов для дисков и сейчас стоят четыре стареньких WDшки, в LVM
> mirror конфигурации.
>
Отвечаю сам
Приветствую, Debian сообщество
решил обновить железо на домашней файлопомойке/медиасервере.
Памяти там 32 гига, не ECC, обычной.
достаточно слотов для дисков и сейчас стоят четыре стареньких WDшки, в LVM
mirror конфигурации.
Как раз сдох загрузочный SSD, что потребовало замены. решил заодно обно
ов без мозгов.
>
Замечу, что возможно и на RAID аппаратный ставить ZFS, как я недавно
узнал (то, что это будет плохо работать, пусть не миф, но и далеко не
бесспорное утверждение).
>>>> уступает как именно рэйд контролер. Можно использовать как hba контроллер
>>>> как писал
13 мая 2018 г., 14:00 пользователь artiom написал:
> Понятно. Видимо, в таком случае аппаратный RAID действительно оправдан.
Не совсем так. Сейчас сей рейд используется как обычный контроллер,
т.е. прокидывает диски в ОС, где mdadm и собирает рейд.
Получается значительно быстрее - не 90-10
artiom wrote:
> >> они дольше живут? Утилита по контролю и настройке да на любителя. Тем не
> >> менее она выполняет все нужные функции. По производительности да 410 уже
> > Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART логи ?
> >
> Вот, кстати, SMART отдельных дисков они "з
>> они дольше живут? Утилита по контролю и настройке да на любителя. Тем не
>> менее она выполняет все нужные функции. По производительности да 410 уже
> Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART логи ?
>
Вот, кстати, SMART отдельных дисков они "затеняют"?
Все контроллеры
Понятно. Видимо, в таком случае аппаратный RAID действительно оправдан.
10.05.2018 10:26, Stanislav Vlasov пишет:
> 8 мая 2018 г., 23:38 пользователь artiom написал:
>
>> Про ZFS: не обязательно столько памяти. Стоит у коллеги на атоме с 2 ГБ.
>
> Там массивы порядка 50-6
Это сервер бекапа..5 рейд..с батарейкой.
на него скидывает бекапы бакула с кучки тазиков... В пики поток гиг..
упираюсь чисто в сетевую. в рейде.. ща скажу сколько дисков
# ./hpacucli controller slot=1 pd all show
Smart Array P212 in Slot 1
array A
physicaldrive 1I:1:1 (port 1I:box 1:
6:47, Andrey Jr. Melnikov пишет:
> > Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с
> > не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной
> > фирмварью"? И это - новые, а старые так сразу при втыкании не COMPAQ SCSI
ть HP raid с
не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной
фирмварью"? И это - новые, а старые так сразу при втыкании не COMPAQ SCSI
везде пестрели желтыми треугольникам, воплями про warranty и прочими
светодиодными пугалками.
8 мая 2018 г., 23:38 пользователь artiom написал:
> Про ZFS: не обязательно столько памяти. Стоит у коллеги на атоме с 2 ГБ.
Там массивы порядка 50-60Тб объёмом. К ним надо несколько больше
памяти, особенно, если таки пользоваться zfs не так же, как ext4...
>> zfs не пробовал - нет столько памя
даже и дешевле. Если кончно разобраться в куче HBA гордо
названных RAID/JBOD.
И утили управления за последние 10 лет как были шлаком, так и остались.
В старом megactl приходилось плясать пляски святого Витта чтоб создать
raid 10/50 (ибо делалось там это весьма альтернативным методом),
megacli - еще к
ают контролеры hp в плане
> > > жёстких дисков. Если вы суете им какую нибудь тошибу которая быстро
> > сыпится
> > > и выходит из строя, контролер не виноват. В плане батареек у вас в
> > телефоне
> > Да ты что? Весь интернет завален вопросами "а б
ат. В плане батареек у вас
> > в телефоне
> > Да ты что? Весь интернет завален вопросами "а будет-ли работать HP
> > raid с
> > не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с
> > HPшной
> > фирмварью"? И это -
и выходит из строя, контролер не виноват. В плане батареек у вас в
> телефоне
> Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с
> не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной
> фирмварью"? И это - новые, а стар
ват. В плане батареек у вас в телефоне
Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с
не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной
фирмварью"? И это - новые, а старые так сразу при втыкании не COMPAQ SCSI
везде пестрели же
> Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
> > Найденные RAID контроллеры стоили порядка $1000-$1500.
> > Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и
> батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250).
&
Н. Артём wrote:
> Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
> Найденные RAID контроллеры стоили порядка $1000-$1500.
> Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и
> батарейкой стоят на ebay в районе $80-100 (на самом де
Ясно, спасибо.
Про ZFS: не обязательно столько памяти. Стоит у коллеги на атоме с 2 ГБ.
08.05.2018 12:01, Stanislav Vlasov пишет:
> 8 мая 2018 г., 13:35 пользователь Н. Артём написал:
>> Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
>> Найденные R
о вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
> > Найденные RAID контроллеры стоили порядка $1000-$1500.
> > Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и
> батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250).
> > Что
8 мая 2018 г., 13:35 пользователь Н. Артём написал:
> Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
> Найденные RAID контроллеры стоили порядка $1000-$1500.
> Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и
> батарейкой стоят на e
Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
Найденные RAID контроллеры стоили порядка $1000-$1500.
Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и
батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250).
Что это и какие у них
25.11.2016 21:57, dimas пишет:
каков должен быть порядок действий?
Создаёшь на новом 1Т диске два раздела. Один на 300-500м под /boot,
второй для всего остального под lvm
Метишь их что они linux raid
Создаёшь два "битых" рейда (можно указать ч
um/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x000cc92b
Device Boot Start End Sectors Size Id Type
/dev/sdb12048 137901959 137899912 65,8G 5 Extended
/dev/sdb2 137901960 976768064 838866105 400G fd Linux raid autodetect
/dev/sdb5
gt; Ну тогда все просто. Больше чем raid5 вы не получите.
> >> >>
> >> >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью.
> В
> >> >> смысле, в случае вылета винта.
> >> АЛ> я за raid10 -- погугли &q
yway, тот SSD стоит настолько дороже винчестера, что для целей
>> бэкап-сервера (небыстрая в норме работа, но места надо много), если уж
>> покупать, то покупать не SSD, а винты в разы большей емкости.
OG> Конешно. Я показал пример почему беcсмысленно избегать RAID 5 в свете S
On Thu, Mar 24, 2016 at 12:45:36PM +0200, Oleksandr Gavenko wrote:
> Конешно. Я показал пример почему беcсмысленно избегать RAID 5 в свете SSD. Не
> будете вы ждать дни пока восстановится RAID и скорость работы не деградирует.
Для бэкапного сервера ни время ребилда, ни скорость работы
р почему беcсмысленно избегать RAID 5 в свете SSD. Не
будете вы ждать дни пока восстановится RAID и скорость работы не деградирует.
По ценам на бытовые SSD / HDD разняться в 2-4 раза за GiB по ценникам
ближайшего магазина.
Производители заявляют что enterprise хранилище на SSD уже деше
Oleksandr Gavenko -> debian-russian@lists.debian.org @ Thu, 24 Mar 2016
12:00:20 +0200:
>> АЛ> я за raid10 -- погугли "Why RAID 5 Sucks"
>>
>> Погуглил. Ничего внятного не увидел.
>> Здесь подробнее https://geektimes.ru/post/78311/
OG> От ту
On 2016-03-24, Андрей Любимец wrote:
> 23.03.2016 18:51, Artem Chuprina пишет:
> АЛ> я за raid10 -- погугли "Why RAID 5 Sucks"
>
> Погуглил. Ничего внятного не увидел.
> Здесь подробнее https://geektimes.ru/post/78311/
От туда:
> Когда RAID-5 появился, в 1987
On Wed, Mar 23, 2016 at 10:51:26PM +0300, Artem Chuprina wrote:
> Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
> 20:37:44 +0300:
>
> >> > Интересно, для чего может понадобиться снапшот свежего бэкапа?
> >>
> >> Я понял так, что просто делается синхронизация rsync,
ора?
>> >> >>
>> >> >> SBK> Места-то сколько надо?
>> >> >>
>> >> >> Бэкап-сервер. Лучше больше.
>> >>
>> >> > Ну тогда все просто. Больше чем raid5 вы не получите.
>> >>
рабайта сделает полтора?
> >> >>
> >> >> SBK> Места-то сколько надо?
> >> >>
> >> >> Бэкап-сервер. Лучше больше.
> >>
> >> > Ну тогда все просто. Больше чем raid5 вы не получите.
> >>
>
Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
20:37:44 +0300:
>> > Интересно, для чего может понадобиться снапшот свежего бэкапа?
>>
>> Я понял так, что просто делается синхронизация rsync, а потом
>> получившееся состояние запоминается с помощью снапшота.
>>
>>
On Wed, Mar 23, 2016 at 08:06:09PM +0300, Sergey B Kirpichev wrote:
> On Wed, Mar 23, 2016 at 07:52:40PM +0300, Eugene Berdnikov wrote:
> > Интересно, для чего может понадобиться снапшот свежего бэкапа?
>
> Я понял так, что просто делается синхронизация rsync, а потом
> получившееся состояние зап
On Wed, Mar 23, 2016 at 07:52:40PM +0300, Eugene Berdnikov wrote:
> Интересно, для чего может понадобиться снапшот свежего бэкапа?
Я понял так, что просто делается синхронизация rsync, а потом
получившееся состояние запоминается с помощью снапшота.
А вы что подумали?)
On Wed, Mar 23, 2016 at 07:04:25PM +0300, Artem Chuprina wrote:
> Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
> 17:57:44 +0300:
>
> >> Механизм простой - рсинком сливаешь и делаешь снапшот
>
> EB> Лучше наоборот, меньше вероятность неконсистентности.
>
> EB> Воо
Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
17:57:44 +0300:
>> Механизм простой - рсинком сливаешь и делаешь снапшот
EB> Лучше наоборот, меньше вероятность неконсистентности.
EB> Вообще, с rsync'ом снапшот не особо-то нужен. К тому же на той стороне,
EB> котор
On 23/03/16 15:51, Artem Chuprina wrote:
> Ну, я понимаю, что RAID 5 не переживет вылет любых двух дисков, в то
> время как RAID 10 - только половину вариантов.
Они оба не переживут при вылете двух дисков. 10 это не совсем 1+0.
Разница в том, что при вылете диска на RAID 5 I/O просядет з
On Wed, Mar 23, 2016 at 05:04:58PM +0300, Dmitry Kulagin wrote:
Более 10-ти лет работаю по следующей схеме.
На каждом диске создается по 3 раздела - swap (1-4 GB), boot (500MB), sys.
Boot разделы собираются в raid1 и монтируются в /boot, первые 2 диска -
основные, остальные - spare.
Загруз
Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
17:49:54 +0300:
>> Аналогично для swap (при желании).
EB> Зачем своп на рейде делать? Данные там имеют ценность лишь при хибернейте,
EB> иначе рейд даёт лишь накладные расходы. Не лучше ли подключить несколько
EB> сво
On Wed, Mar 23, 2016 at 04:00:49PM +0200, Vasiliy P. Melnik wrote:
> Механизм простой - рсинком сливаешь и делаешь снапшот
Лучше наоборот, меньше вероятность неконсистентности.
Вообще, с rsync'ом снапшот не особо-то нужен. К тому же на той стороне,
которую нужно бэкапить, может не быть снапшот
On Wed, Mar 23, 2016 at 05:04:58PM +0300, Dmitry Kulagin wrote:
> Более 10-ти лет работаю по следующей схеме.
> На каждом диске создается по 3 раздела - swap (1-4 GB), boot (500MB), sys.
> Boot разделы собираются в raid1 и монтируются в /boot, первые 2 диска -
> основные, остальные - spare.
Загру
On Wed, Mar 23, 2016 at 05:04:58PM +0300, Dmitry Kulagin wrote:
> В качестве современной альтернативы данной схемы можно предложить btrfs или
> zfs, в которых и фс,
> и рейд, и lvm в одном флаконе.
btrfs не умеет нормально raid5 в jessie.
Vasiliy P. Melnik -> debian-russian @ Wed, 23 Mar 2016 16:00:49 +0200:
> так модуль есть в кернел для зфса - у меня правда на оракл линукс стоит, но
> не думаю что это принципиально.
А вот зря. Оракл теперь владелец оригинала, у него этот модуль
гарантированно не сломается при апгрейде ядра.
ные на md raid
периодически протухают.
>З.Ы. пробовал btrfs - тормозное оно шибко, но тоже работает как надо
А в каком месте тормозное, в смысле последующей работы со снапшотами?
Более 10-ти лет работаю по следующей схеме.
На каждом диске создается по 3 раздела - swap (1-4 GB), boot (500MB), sys.
Boot разделы собираются в raid1 и монтируются в /boot, первые 2 диска -
основные, остальные - spare.
Аналогично для swap (при желании).
Sys разделы собираются в raid5, поверх со
так модуль есть в кернел для зфса - у меня правда на оракл линукс стоит, но
не думаю что это принципиально. Правда больше на фре использую, но тут
вопрос не принципиальный: там модуль из коробки, здесь - из репозитария.
Жалею только, что систему поставил на эти же винты - сложно что-то
переделывать
23 марта 2016 г., 17:39 пользователь Artem Chuprina написал:
> >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
> >> смысле, в случае вылета винта.
> > В случае вылета винта вы получите данные без избыточности
> > и при проблемах с любым оставшимся диском - потерю д
Vasiliy P. Melnik -> debian-russian @ Wed, 23 Mar 2016 15:00:04 +0200:
VPM> А данные какие? я держу бекапы на зфс-е - у меня достаточно мало
изменений,
VPM> ну и плюс снапшоты очень удобная вещь и спасает от удаления данных
Данные разные, но в целом, вероятно, со сравнительно небольшими
измен
gt; >> >> Бэкап-сервер. Лучше больше.
> >>
> >> > Ну тогда все просто. Больше чем raid5 вы не получите.
> >>
> >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью.
> В
> >> смысле, в случае вылета винта.
>
>> SBK> Места-то сколько надо?
>> >>
>> >> Бэкап-сервер. Лучше больше.
>>
>> > Ну тогда все просто. Больше чем raid5 вы не получите.
>>
>> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
>> смы
Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
14:55:27 +0300:
>> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
>> смысле, в случае вылета винта.
> В случае вылета винта вы получите данные без избыточности
> и при проблемах с любым оставш
On Wed, Mar 23, 2016 at 02:24:44PM +0300, Artem Chuprina wrote:
> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
> смысле, в случае вылета винта.
В случае вылета винта вы получите данные без избыточности
и при проблемах с любым оставшимся диском - потерю данных. // КО.
>
лтора?
> >>
> >> SBK> Места-то сколько надо?
> >>
> >> Бэкап-сервер. Лучше больше.
>
> > Ну тогда все просто. Больше чем raid5 вы не получите.
>
> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
> смысле,
Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
14:07:58 +0300:
>> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
>> >> полтерабайта сделает полтора?
>>
>> SBK> Места-то сколько надо?
>>
>> Бэкап-сервер. Лучше больше.
> Ну тогда вс
Stanislav Vlasov -> debian-russian @ Wed, 23 Mar 2016 15:35:25 +0500:
>> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
>> >> полтерабайта сделает полтора?
SV> Работал и такой вариант, но нам было медленно...
>> SBK> Места-то сколько надо?
>>
>> Бэкап-сервер.
On Wed, Mar 23, 2016 at 01:24:08PM +0300, Artem Chuprina wrote:
> Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
> 13:14:52 +0300:
>
> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
> >> полтерабайта сделает полтора?
>
> SBK> Места-то скол
23 марта 2016 г., 15:24 пользователь Artem Chuprina написал:
> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
> >> полтерабайта сделает полтора?
Работал и такой вариант, но нам было медленно...
> SBK> Места-то сколько надо?
>
> Бэкап-сервер. Лучше больше.
У нас по
Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
13:14:52 +0300:
>> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
>> полтерабайта сделает полтора?
SBK> Места-то сколько надо?
Бэкап-сервер. Лучше больше.
>> Какие тонкости с загрузкой?
SBK>
On Wed, Mar 23, 2016 at 01:06:54PM +0300, Artem Chuprina wrote:
> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
> полтерабайта сделает полтора?
Места-то сколько надо?
> Какие тонкости с загрузкой?
В jessie вроде должно уметь грузиться и с raid5.
Люди местные, сами мы недобрые, поможите умным словом.
Никогда не работал раньше с софтверным рейдом. Ситуация.
Надо сделать на коленке бэкап-сервер. В смысле, чтобы стоял под столом,
его никто не трогал, а он работал. Упса, вообще говоря, нет. Ну, пока
нет, а будет ли - непонятно.
Четыре винта
В Wed, 5 Nov 2014 21:19:27 +0300
Hleb Valoshka <375...@gmail.com> пишет:
> Странно, что у вас это вылезло только недавно, так как подобный баг
> проявился ещё во времена ядра 3.8.
Проблемы начались примерно после перехода на systemd init.
Я на него грешил тогда. Какое в этот момент было ядро - не
On 11/5/14, Andrey Nikitin wrote:
>> Можно убрать FD с типа партиции и добавить INITRDSTART='all'
>> в /etc/default/mdadm. В этом случае md девайсы будут собираться из
>> initrd, а не ядром.
>
> Реально помогло:
> * rootdelay=10
> и/или
> * quick что-то test или check = off в bios (стало на 1-2
В Wed, 29 Oct 2014 14:00:44 +0300
Andrey Tataranovich пишет:
> Можно убрать FD с типа партиции и добавить INITRDSTART='all'
> в /etc/default/mdadm. В этом случае md девайсы будут собираться из
> initrd, а не ядром.
Реально помогло:
* rootdelay=10
и/или
* quick что-то test или check = off в bio
В Wed, 29 Oct 2014 15:29:39 +0300
Andrey Tataranovich пишет:
> Не важно. Grub грузит свой stage1.5 с чего угодно, если сможет при
> установке определить физическое расположение на диске.
>
> Поддержка RAID1 в данном случае - поддержка установки в MBR всех
> дисков, членов RAID.
аться из
> > initrd, а не ядром.
>
> Переменная установлена, спасибо, попробую.
>
> Да, и если /dev/md0 это /boot?
Не важно. Grub грузит свой stage1.5 с чего угодно, если сможет при
установке определить физическое расположение на диске.
Поддержка RAID1 в данном случае - поддержка установки
В Wed, 29 Oct 2014 14:00:44 +0300
Andrey Tataranovich пишет:
> Можно убрать FD с типа партиции и добавить INITRDSTART='all'
> в /etc/default/mdadm. В этом случае md девайсы будут собираться из
> initrd, а не ядром.
Переменная установлена, спасибо, попробую.
Да, и если /dev/md0 это /boot?
--
В Wed, 29 Oct 2014 10:18:26 +0300
Nikolay Kachanov пишет:
> Вы хотели написать "Jessie"?
Да, конечно.
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/2014102915135
f 2 mirrors
> kernel: [8.983736] md0: detected capacity change from 0 to
> 98566144 kernel: [8.984272] md0: unknown partition table
>
> Прим:
> * На райдовых разделах (/dev/sd{b,c}{1,3}) стоит тип 0xFD (Linux
> raid autodetect).
> * Норм. загрузка бывает когда оба диска
Здравствуйте, Андрей.
29.10.2014 09:29:12, Andrey Nikitin:
> Debian Wheeze 8.0
Вы хотели написать "Jessie"?
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/5450
ind
kernel: [8.983711] md/raid1:md0: active with 1 out of 2 mirrors
kernel: [8.983736] md0: detected capacity change from 0 to 98566144
kernel: [8.984272] md0: unknown partition table
Прим:
* На райдовых разделах (/dev/sd{b,c}{1,3}) стоит тип 0xFD (Linux raid
autodetect).
* Норм. загру
Am 06.12.2013 21:30, schrieb Alexander Wiedergold WIEDERGOLD.NET:
Am 06.12.2013 10:20, schrieb yuri.nefe...@gmail.com:
On Fri, 6 Dec 2013, Victor Wagner wrote:
On 2013.12.06 at 11:00:16 +0400, Pavel Ammosov wrote:
On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold
WIEDERGOLD.NET
Am 06.12.2013 10:20, schrieb yuri.nefe...@gmail.com:
On Fri, 6 Dec 2013, Victor Wagner wrote:
On 2013.12.06 at 11:00:16 +0400, Pavel Ammosov wrote:
On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold
WIEDERGOLD.NET wrote:
и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечен
On Fri, 6 Dec 2013, Victor Wagner wrote:
On 2013.12.06 at 11:00:16 +0400, Pavel Ammosov wrote:
On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold WIEDERGOLD.NET
wrote:
и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd,
Вопрос к fdisc. Как сделать Header, без по
On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold WIEDERGOLD.NET
wrote:
> >и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd,
> Вопрос к fdisc. Как сделать Header, без потери данных?
> [root@www ~]# fdisk -l /dev/sdb
> WARNING: GPT (GUID Partition Table) detected on
и не доходит, как я понимаю...
в бизибоксе:
mdadm --examine --scan
показывает рейд
mdadm --assemble --scan
тишина
вот по этому
mdadm --detail --scan
тишина
странно почему тишина
uuid в mdadm.conf правильный
подскажите куда копать?..
дело в том, что не собирается Raid
лично мне как то малов
> > metadata=1.2
Смущает меня эта версия метаданных. Где-то читал, что у ядра проблемы с
автомонтированием, если версия метаданных не 0.9.
--
С уважением,
Константин Матюхин
-examine --scan
>> показывает рейд
>>
>> mdadm --assemble --scan
>> тишина
>
> вот по этому
>
>> mdadm --detail --scan
>> тишина
>
> странно почему тишина
>
>> uuid в mdadm.conf правильный
>>
>> подскажите куда копать?..
се:
mdadm --examine --scan
показывает рейд
mdadm --assemble --scan
тишина
вот по этому
mdadm --detail --scan
тишина
странно почему тишина
uuid в mdadm.conf правильный
подскажите куда копать?..
дело в том, что не собирается Raid
лично мне как то маловато информации чтобы догадаться до того где
), ибо до
> lvm дело даже и не доходит, как я понимаю...
>
> в бизибоксе:
>
> mdadm --examine --scan
> показывает рейд
>
> mdadm --assemble --scan
> тишина
> mdadm --detail --scan
> тишина
>
> uuid в mdadm.conf правильный
>
> подскажите куда копать?..
&g
Debian 7 x64 (ставил через debootstrap). Имею md-зеркало, которое целиком
отдано как PV под lvm.
После переименования VG с lvm-томом, содержащим корневой раздел (/boot внутри),
и перезагрузки - на стадии монтирования корня пишется следующее:
assembling all MD arrays ... Failure: faild to assemb
27.11.2013, 17:18, "Vladimir Skubriev" :
> по ходу дела возник вопрос:
>
> есть ли разница между
>
> 1. dpkg-reconfigure grub-pc
> и
> 2. grub-install /dev/sda && grub-install /dev/sdb && grub-install /dev/sdc
> и
> 3. grub-install /dev/sd
по ходу дела возник вопрос:
есть ли разница между
1. dpkg-reconfigure grub-pc
и
2. grub-install /dev/sda && grub-install /dev/sdb && grub-install /dev/sdc
и
3. grub-install /dev/sda /dev/sdb /dev/sdc
если используешь mdadm raid 1 ?
так сказать спрошу заранее более опытных )
, виртуалка2 и т.д.). Чтобы в случае
проблемы с секторами страдала бы только одна сущность, а не весь массив. Отсюда
возник очевидный вывод - использовать lvm raid и вообще отказаться от md.
Разбил я винты так - один раздел на весь диск под LVM PV, поставил систему на
lvm-том и потом преобразовал его в
On 05.09.2013 22:41, A Bol wrote:
Был только один такой случай, основной том работал нормально.
--
http://linuxsnippets.net
Вот у меня на днях такой случай тоже был. Причем есть подозрение, на две
вещи
1. Снапошот, хотя опять же, поидее он до фени
2. ФС была смонтирована и в виртуалке
On Wed, 04 Sep 2013 14:37:48 +0400
Владимир Скубриев wrote:
> On 03.09.2013 21:47, A Bol wrote:
> > 3 диска в зеркале, для снятия копии это нормальная практика, которая
> > применялась широко пока не появились snapshot'ы.
> >
> Вот с этого места - можно поподробнее ?
>
> Чуть подробнее про норм
On 03.09.2013 21:47, A Bol wrote:
3 диска в зеркале, для снятия копии это нормальная практика, которая
применялась широко пока не появились snapshot'ы.
Вот с этого места - можно поподробнее ?
Чуть подробнее про нормальную практику - жутко интересно
Чуть подробнее про снапшоты.
В моей ситуац
ли может быть нужно смотреть в сторону другого RAID LEVEL, MIRROR
> TECHNOLOGY, etc ?
>
> Надо это для того, чтобы легко создавать целостную копию всего сервера
> при этом не останавливая его, а только например перезапуская. Что не
> критично для работающих с ним пользователей.
&
30.08.2013 12:28, Владимир Скубриев пишет:
On 30.08.2013 13:24, yuri.nefe...@gmail.com wrote:
Неприменно надо экспериментировать!
Кстати, как вы загрузчик (grub/lilo) планируете настраивать?
Так что воткнул и заработало вряд ли выйдет...
Ю.
без танцев с бубном - не выйдет согласен
а так во
On 30.08.2013 13:24, yuri.nefe...@gmail.com wrote:
Неприменно надо экспериментировать!
Кстати, как вы загрузчик (grub/lilo) планируете настраивать?
Так что воткнул и заработало вряд ли выйдет...
Ю.
без танцев с бубном - не выйдет согласен
а так вообще планировал
chroot, grub-install
ну ко
On Fri, 30 Aug 2013, Владимир Скубриев wrote:
On 30.08.2013 12:38, Hleb Valoshka wrote:
On 8/30/13, Владимир Скубриев wrote:
Чтобы в случае чего взять этот винт из загашника, поставить в сервер и
вуаля получить рабочую систему.
А этот винт не будет ли помечен как failed, со всеми вытекающим
30 августа 2013 г., 16:01 пользователь Владимир Скубриев написал:
> On 30.08.2013 12:38, Hleb Valoshka wrote:
>>
>>> Чтобы в случае чего взять этот винт из загашника, поставить в сервер и
>>> вуаля получить рабочую систему.
>>
>> А этот винт не будет ли помечен как failed, со всеми вытекающими?
Ес
On 30.08.2013 12:38, Hleb Valoshka wrote:
On 8/30/13, Владимир Скубриев wrote:
Чтобы в случае чего взять этот винт из загашника, поставить в сервер и
вуаля получить рабочую систему.
А этот винт не будет ли помечен как failed, со всеми вытекающими?
тонкостей я еще не знаю, так как такую задачу
On 8/30/13, Владимир Скубриев wrote:
> Чтобы в случае чего взять этот винт из загашника, поставить в сервер и
> вуаля получить рабочую систему.
А этот винт не будет ли помечен как failed, со всеми вытекающими?
On 29.08.2013 21:27, Alexander wrote:
не совсем понятна цель всех этих остановок и подключений/отключений
диска. зачем?
чисто теоретически я еще могу понять, если третьим будет внешний винт,
подключенный по e-sata или usb3. в случае чего его можно отключить от
массива и использовать в другой м
почему же, все понятно - раз в неделю сливаем бэкап. если держать его постоянно
- в случае какого-нибудь косячного обновления или еще чего получаем косячные
данные на всех трех дисках - вот тут уж действительно бред выходит.
а для бэкапов "по-живому", думается мне, стоит посмотреть в сторону
lvm-сн
еме письма. Возможно ли создать "зеркало" с тремя дисками ? Или может быть нужно смотреть в сторону другого RAID LEVEL, MIRROR TECHNOLOGY, etc ? Надо это для того, чтобы легко создавать целостную копию всего сервера при этом не останавливая его, а только например перезапуская. Что не крити
20:14 Thu 29 Aug, Dmitry Fedorov wrote:
> 29 августа 2013 г., 20:08 пользователь Владимир Скубриев
> написал:
> > On 29.08.2013 17:01, Dmitry Fedorov wrote:
> >
> > Просто нужно добавить диск/раздел в массив зеркальный и все ? В смысле
> > начнется ребилд и будут использоваться 3 диска вместо
29 августа 2013 г., 20:08 пользователь Владимир Скубриев
написал:
> On 29.08.2013 17:01, Dmitry Fedorov wrote:
>
> Просто нужно добавить диск/раздел в массив зеркальный и все ? В смысле
> начнется ребилд и будут использоваться 3 диска вместо двух для чтения записи
> на блочное устройство через mda
Результаты 1 - 100 из 796 matches
Mail list logo